Home Nieuws Mensen gebruiken Sora 2 om verontrustende video’s te maken met door AI...

Mensen gebruiken Sora 2 om verontrustende video’s te maken met door AI gegenereerde kinderen

6
0
Mensen gebruiken Sora 2 om verontrustende video’s te maken met door AI gegenereerde kinderen

Op 7 oktober een TikTok-account met de naam @fujitiva48 stelde een provocerende vraag naast hun nieuwste video. “Wat vind je van dit nieuwe speelgoed voor kleine kinderen?” vroegen ze aan meer dan 2.000 kijkers, die waren gestuit op wat leek op een parodie op een tv-commercial. Het antwoord was duidelijk. “Hé, dus dit is niet grappig”, schreef iemand. “Wie dit heeft gemaakt, moet worden onderzocht.”

Het is gemakkelijk te begrijpen waarom de video zo’n sterke reactie teweegbracht. De nepreclame begint met een fotorealistisch jong meisje dat speelgoed vasthoudt: roze, sprankelend, met een hommel op het handvat. Het is een pen, zo wordt ons verteld, terwijl het meisje en twee anderen op een papiertje krabbelen terwijl een volwassen mannelijke voice-over het verhaal vertelt. Maar het is duidelijk dat het bloemdessin, het vermogen om te zoemen en de naam (de Vibro Rose) van het object veel op een seksspeeltje lijken en klinken. Een ‘voeg de jouwe toe’-knop – de functie op TikTok die mensen aanmoedigt de video op hun feeds te delen – met de woorden ‘Ik gebruik mijn rozenspeeltje’ – neemt zelfs het kleinste stukje twijfel weg. (WIRED nam contact op met het @fujitiva48-account voor commentaar, maar kreeg geen antwoord.)

De onsmakelijke clip is gemaakt met behulp van Soera 2, OpenAI’s nieuwste videogenerator, die aanvankelijk alleen op uitnodiging in de VS werd uitgebracht op 30 september. Binnen slechts een week tijd waren video’s zoals de Vibro Rose-clip van Sora gemigreerd en op de For You-pagina van TikTok terechtgekomen. Sommige andere nepadvertenties waren zelfs nog explicieter: WIRED ontdekte verschillende accounts die soortgelijke door Sora 2 gegenereerde video’s plaatsten met roos- of paddenstoelvormige waterspeeltjes en taartdecorateurs die ‘plakkerige melk’, ‘wit schuim’ of ‘klever’ op levensechte afbeeldingen van kinderen spoot.

Het bovenstaande zou in veel landen aanleiding zijn voor onderzoek als het om echte kinderen ging en niet om digitale samensmeltingen. Maar de wetten op door AI gegenereerde fetisjinhoud waarbij minderjarigen betrokken zijn, blijven vaag. Nieuwe gegevens voor 2025 van de Stichting Internetwatch in het Verenigd Koninkrijk merkt op dat het aantal meldingen van door AI gegenereerd seksueel kindermisbruikmateriaal, oftewel CSAM, in één jaar tijd is verdubbeld van 199 tussen januari en oktober 2024 naar 426 in dezelfde periode van 2025. Zesenvijftig procent van deze inhoud valt in categorie A – de ernstigste categorie in Groot-Brittannië met betrekking tot penetrerende seksuele activiteit, seksuele activiteit met een dier of sadisme – en 94 procent van de illegale AI-afbeeldingen die door IWF worden bijgehouden, waren van meisjes. (Sora lijkt geen categorie A-inhoud te genereren.)

“Vaak zien we dat de gelijkenissen van echte kinderen worden gecommercialiseerd om naakt- of seksuele beelden te creëren, en in overweldigende mate zien we dat AI wordt gebruikt om beelden van meisjes te creëren. Het is nog een andere manier waarop meisjes online worden aangevallen”, vertelt Kerry Smith, CEO van de IWF, aan WIRED.

Deze toestroom van schadelijk, door AI gegenereerd materiaal heeft Groot-Brittannië ertoe aangezet om een nieuw amendement op de Crime and Policing Billwaardoor “geautoriseerde testers” kunnen controleren of hulpmiddelen voor kunstmatige intelligentie geen CSAM kunnen genereren. Zoals de BBC heeft gemeld, zou dit amendement ervoor zorgen dat modellen waarborgen krijgen rond specifieke afbeeldingen, waaronder in het bijzonder extreme pornografie en niet-consensuele intieme afbeeldingen. In de VS hebben 45 staten wetten geïmplementeerd het criminaliseren van door AI gegenereerde CSAMde meeste in de afgelopen twee jaar, terwijl AI-generatoren blijven evolueren.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in