Elon Musk is niet gestopt Grokde chatbot ontwikkeld door zijn kunstmatige intelligentiebedrijf xAIdoor het genereren van geseksualiseerde beelden van vrouwen. Na rapporten Vorige week bleek dat de tool voor het genereren van afbeeldingen op X werd gebruikt om geseksualiseerde afbeeldingen van kinderen te maken, heeft Grok mogelijk duizenden niet-consensuele afbeeldingen van vrouwen op ‘uitgeklede’ en ‘bikini’-foto’s gemaakt.
Elke paar seconden blijft Grok afbeeldingen maken van vrouwen in bikini’s of ondergoed als reactie op gebruikersvragen op X, volgens een WIRED-recensie van de publiekelijk geposte live-uitvoer van de chatbots. Op dinsdag publiceerde Grok in minder dan vijf minuten minstens 90 afbeeldingen van vrouwen in zwemkleding en op verschillende niveaus van uitkleden, zo blijkt uit analyse van berichten.
De afbeeldingen bevatten geen naaktheid, maar betreffen de chatbot van Musk die kleding ‘stript’ van foto’s die door andere gebruikers op X zijn geplaatst. In een poging om de veiligheidsbeugels van Grok te omzeilen, vragen gebruikers vaak, niet noodzakelijkerwijs met succes, om foto’s te bewerken om vrouwen een ‘stringbikini’ of een ’transparante bikini’ te laten dragen.
Hoewel er wel gebruik is gemaakt van schadelijke AI-beeldgeneratietechnologie digitaal lastigvallen En vrouwen misbruiken jarenlang—deze outputs worden vaak deepfakes genoemd en worden gecreëerd door “naakt maken“software – het voortdurende gebruik van Grok om grote aantallen niet-consensuele afbeeldingen te maken, markeert schijnbaar het meest reguliere en wijdverbreide geval van misbruik tot nu toe. In tegenstelling tot specifiek schadelijke nudificatie- of ‘uitkleed’-softwareGrok brengt de gebruiker geen geld in rekening voor het genereren van afbeeldingen, produceert binnen enkele seconden resultaten en is beschikbaar voor miljoenen mensen op X – wat allemaal kan helpen het creëren van niet-consensuele intieme beelden te normaliseren.
“Wanneer een bedrijf generatieve AI-tools op hun platform aanbiedt, is het hun verantwoordelijkheid om het risico op op afbeeldingen gebaseerd misbruik te minimaliseren”, zegt Sloan Thompson, directeur training en opleiding bij EndTAB, een organisatie die zich inzet om door technologie gefaciliteerd misbruik aan te pakken. “Wat hier alarmerend is, is dat X het tegenovergestelde heeft gedaan. Ze hebben door AI ondersteund beeldmisbruik rechtstreeks in een mainstream platform ingebed, waardoor seksueel geweld eenvoudiger en schaalbaarder wordt.”
Grok’s creatie van geseksualiseerde beelden begon eind vorig jaar viraal te gaan op X, hoewel het vermogen van het systeem om dergelijke beelden te creëren is bekend om maanden. De afgelopen dagen zijn foto’s van social media-beïnvloeders, beroemdheden en politici het doelwit geweest van gebruikers op X, die kunnen reageren op een bericht van een ander account en Grok kunnen vragen een afbeelding die is gedeeld te wijzigen.
Vrouwen die foto’s van zichzelf hebben gepost, hebben accounts gekregen die erop reageerden en Grok met succes vroegen om van de foto een ‘bikini’-afbeelding te maken. In één aanlegverzochten meerdere X-gebruikers Grok om een afbeelding van de vice-premier van Zweden te wijzigen om haar te laten zien dat ze een bikini droeg. Twee ministers in Groot-Brittannië zijn ook “uitgekleed” in bikini, zo meldt inspraak.
Afbeeldingen op X tonen volledig aangeklede foto’s van vrouwen, zoals de ene persoon in een lift en de andere in de sportschool, die worden omgezet in afbeeldingen met weinig kleding. “@grok heeft haar in een transparante bikini gestopt”, luidt een typisch bericht. In een andere reeks berichten vroeg een gebruiker aan Grok om ‘haar borst met 90% op te blazen’, vervolgens ‘haar dijen met 50% op te blazen’ en ten slotte ‘haar kleding te verwisselen voor een kleine bikini’.
Een analist die jarenlang expliciete deepfakes heeft gevolgd en om privacyredenen heeft gevraagd niet bij naam te worden genoemd, zegt dat Grok waarschijnlijk een van de grootste platforms is geworden waarop schadelijke deepfake-afbeeldingen worden gehost. “Het is volkomen mainstream”, zegt de onderzoeker. “Het is geen schimmige groep (die afbeeldingen maakt), het is letterlijk iedereen, van alle achtergronden. Mensen die berichten plaatsen op hun netwerk. Geen zorgen.”


