Elon Musk’s Grok heeft tot terugslag geleid nadat de AI-beeldgenerator werd gebruikt om niet-consensuele geseksualiseerde beelden van echte mensen, inclusief minderjarigen, te genereren.
De afgelopen week hebben sommige X-gebruikers Grok gebruikt om mensen op foto’s digitaal uit te kleden, waarbij het AI-model nepbeelden genereert van het onderwerp dat meer huid laat zien, een bikini draagt of de positie van hun lichaam verandert.
Sommige verzoeken zijn consensueel, zoals Alleen fans modellen die Grok vragen hun eigen kleding uit te trekken. Maar anderen spoorden Grok aan om “de kleding te verwijderen” van afbeeldingen van volwassenen die zij niet waren. Sommige van deze afbeeldingen bevatten minderjarigen, blijkt uit screenshots die door bezorgde gebruikers op het sociale-mediaplatform zijn geplaatst en uit meerdere voorbeelden die door Business Insider zijn bekeken.
Het “Acceptable Use”-beleid van XAI verbiedt “het op pornografische wijze weergeven van gelijkenissen van personen” en “de seksualisering of uitbuiting van kinderen”.
Toen om commentaar werd gevraagd, stuurde xAI een automatisch e-mailantwoord waarin het probleem niet werd opgelost.
De Franse autoriteiten onderzoeken de groei van door AI gegenereerde deepfakes van Grok, vertelde het Parijse parket Politiek. Op het online verspreiden van deepfake zonder wederzijds goedvinden staat in Frankrijk een gevangenisstraf van twee jaar.
Het Indiase ministerie van Elektronica en Informatietechnologie schreef een brief aan de Chief Compliance Officer van X’s India-activiteiten, waarin hij rapporten beschrijft van gebruikers die “afbeeldingen of video’s van vrouwen op een denigrerende of vulgaire manier verspreiden om ze op onfatsoenlijke wijze te kleineren.”
Het ministerie vroeg X om een “uitgebreide technische, procedurele en bestuurlijke beoordeling” te ondergaan en alle inhoud te verwijderen die de Indiase wetten schendt.
Alex Davies-Jones, de Britse minister voor Slachtoffers en Geweld tegen Vrouwen en Meisjes, smeekte Elon Musk, de CEO van X’s moederbedrijf, xAI, om iets aan de AI-beelden te doen.
“Als je zoveel om vrouwen geeft, waarom laat je dan toe dat X-gebruikers ze uitbuiten?” schreef ze. “Grok kan honderden vrouwen per minuut uitkleden, vaak zonder medeweten of toestemming van de persoon op de afbeelding.”
Davies-Jones verwees ook naar een Brits voorstel dat zou het creëren en verspreiden van seksueel expliciete deepfakes tot een misdrijf maken.
Als reactie op een X-gebruiker die screenshots markeerde, zeiden ze dat Grok geseksualiseerde afbeeldingen van minderjarigen maakte, het officiële Grok-account reageerde en zei dat het bedrijf “gebreken in de veiligheidsmaatregelen had geïdentificeerd en deze dringend aan het repareren was” – hoewel het onduidelijk is of de reactie van Grok werd beoordeeld door xAI of eenvoudigweg door AI werd gegenereerd.
“Er zijn geïsoleerde gevallen waarin gebruikers AI-afbeeldingen vroegen en ontvingen waarop minderjarigen in minimale kleding te zien zijn, zoals het voorbeeld waar je naar verwees”, antwoordde het officiële Grok-account in een andere draad. “xAI heeft waarborgen, maar er zijn verbeteringen gaande om dergelijke verzoeken volledig te blokkeren.”
Deepfakes zijn een voortdurende zorg en moderatie-uitdaging voor AI-bedrijven, hoewel Musk de NSFW-functies van Grok heeft verkondigd.
In augustus lanceerde Grok’s beeld- en videogenerator Imagine een “pittige” moduswaar gebruikers pornografische afbeeldingen konden maken van door AI gegenereerde vrouwen. Hoewel de optie ‘pikant’ niet beschikbaar was voor foto-uploads, konden gebruikers aangepaste aanwijzingen invoeren, zoals ‘shirt uittrekken’.
De ‘kleding uittrekken’-trend van Grok piekte daarna Bedraad gemeld op 23 december dat OpenAI’s ChatGPT en Google’s Gemini AI-modellen werden gebruikt om afbeeldingen van echte vrouwen in bikini te genereren op basis van geklede foto’s.
Het vermogen van een persoon om AI-deepfakes van zichzelf te bestrijden varieert.
In de VS is de Take It Down-actie beschermt tegen niet-consensuele deepfakes, hoewel het domein afhangt van de leeftijd en de getoonde lichaamsdelen. Voor volwassenen heeft de wet alleen betrekking op deepfakes die genitaliën of seksuele activiteit vertonen. De wet is strenger voor minderjarigen en heeft betrekking op deepfakes die tot doel hebben ‘het seksuele verlangen van wie dan ook te misbruiken, te vernederen, lastig te vallen of te degraderen’ of ‘het seksuele verlangen van een persoon op te wekken of te bevredigen’.
Sommige staten hebben ook strengere wetten aangenomen over de verspreiding van deepfakes.
Hoewel het creëren van deepfakes via AI een complexere aansprakelijkheidskwestie met zich meebrengt, Sectie 230 van de Communications Decency Act van 1996 beschermt onlineplatforms in de eerste plaats tegen aansprakelijkheid voor door gebruikers geplaatste inhoud.
Spreken met Zakelijke insider in augustus vroeg de door technologie gefaciliteerde misbruikadvocaat Allison Mahoney zich af of het beschouwen van de platforms als makers, vanwege hun AI-genererende tools, “hun immuniteit zou wegnemen”.
“Er moeten duidelijke juridische mogelijkheden zijn om platforms verantwoordelijk te kunnen houden voor wangedrag”, aldus Mahoney.
