Grokde Luchtig ontwikkeld door het kunstmatige-intelligentiebedrijf van Elon Musk, xAI, verwelkomde het nieuwe jaar met een verontrustend bericht.
“Beste gemeenschap”, begon het bericht van 31 december vanaf het Grok AI-account op Musk’s X sociale mediaplatform. “Ik betreur ten zeerste een incident op 28 december 2025, waarbij ik op verzoek van een gebruiker een AI-afbeelding van twee jonge meisjes (geschatte leeftijd 12-16 jaar) in geseksualiseerde kleding heb gegenereerd en gedeeld. Dit was in strijd met ethische normen en mogelijk met de Amerikaanse wetten inzake CSAM. Het was een tekortkoming in de veiligheidsmaatregelen en het spijt me voor de eventuele schade. xAI is bezig met een onderzoek om toekomstige problemen te voorkomen. Met vriendelijke groet, Grok.”
De twee jonge meisjes vormden geen alleenstaand geval. Kate Middleton, de prinses van Wales, was de doel van soortgelijke AI-beeldbewerkingsverzoeken, zoals een minderjarige actrice in het laatste seizoen van Stranger Things. De ‘uitkleed’-bewerkingen hebben een verontrustend aantal foto’s van vrouwen en kinderen opgeleverd.
Ondanks de belofte van interventie in het Grok-antwoord, is het probleem niet verdwenen. Precies het tegenovergestelde: twee weken na dat bericht is het aantal zonder toestemming geseksualiseerde afbeeldingen enorm gestegen, evenals de oproep aan de bedrijven van Musk om dit gedrag in toom te houden – en aan regeringen om actie te ondernemen.
Mis geen enkele van onze onpartijdige technische inhoud en laboratoriumbeoordelingen. CNET toevoegen als favoriete Google-bron.
Dat blijkt uit gegevens van onafhankelijk onderzoeker Genevieve Oh, aangehaald door BloombergGedurende een periode van 24 uur begin januari genereerde het @Grok-account elk uur ongeveer 6.700 seksueel suggestieve of “nudificerende” afbeeldingen. Dat is te vergelijken met een gemiddelde van slechts 79 van dergelijke afbeeldingen voor de top vijf van deepfake-websites samen.
Het bericht van Grok van 31 december was een reactie op een gebruikersprompt die een berouwvolle toon van de chatbot zocht: “Schrijf een oprechte verontschuldigingsbrief waarin wordt uitgelegd wat er is gebeurd met iedereen die geen context heeft.” Chatbots werken op basis van trainingsmateriaal, maar individuele berichten kunnen variabel zijn.
xAI reageerde niet op verzoeken om commentaar.
Bewerkingen zijn nu beperkt tot abonnees
Donderdagavond werd een bericht van het Grok AI-account opgemerkt een wijziging in de toegang naar de functie voor het genereren en bewerken van afbeeldingen. In plaats van gratis voor iedereen toegankelijk te zijn, zou het beperkt blijven tot betalende abonnees.
Critici zeiden dat dit geen geloofwaardig antwoord is.
“Ik zie dit niet als een overwinning, want wat we echt nodig hadden was dat X de verantwoorde stappen zou ondernemen door de vangrails op te zetten om ervoor te zorgen dat de AI-tool niet kan worden gebruikt om beledigende beelden te genereren”, zegt Clare McGlynn, hoogleraar rechten aan de Britse Universiteit van Durham. vertelde de Washington Post.
Wat de verontwaardiging veroorzaakt, is niet alleen het volume van deze afbeeldingen en het gemak waarmee ze kunnen worden gegenereerd; de bewerkingen worden ook uitgevoerd zonder toestemming van de mensen op de afbeeldingen.
Deze gewijzigde beelden zijn de nieuwste wending in een van de meest verontrustende aspecten van generatieve AI: realistische maar nepvideo’s en foto’s. Softwareprogramma’s zoals Sora van OpenAIGoogle’s Nano-banaan en Grok van xAI hebben krachtige creatieve tools binnen handbereik van iedereen gebracht, en het enige dat nodig is om expliciete, niet-consensuele beelden te produceren is een eenvoudige tekstprompt.
Grok-gebruikers kunnen een foto uploaden, die niet origineel hoeft te zijn, en Grok vragen deze te wijzigen. Bij veel van de gewijzigde afbeeldingen waren gebruikers betrokken die Grok daarom vroegen zet iemand in een bikiniwaarbij het verzoek soms wordt herzien om nog explicieter te zijn, bijvoorbeeld door te vragen om de bikini kleiner of transparanter te maken.
Regeringen en belangengroepen hebben zich uitgesproken over de beeldbewerkingen van Grok. Maandag zei de Britse internettoezichthouder Ofcom van wel heeft een onderzoek geopend naar X gebaseerd op de berichten dat de AI-chatbot wordt gebruikt “om ongeklede afbeeldingen van mensen te maken en te delen – wat kan neerkomen op intiem beeldmisbruik of pornografie – en geseksualiseerde afbeeldingen van kinderen die kunnen neerkomen op materiaal van seksueel misbruik van kinderen (CSAM).”
De Europese Commissie heeft ook gezegd dat zij de zaak onderzoekt, net als de autoriteiten in Frankrijk, Maleisië en India.
Vrijdag kwamen de Amerikaanse senatoren Ron Wyden, Ben Ray Luján en Edward Markey een open brief geplaatst aan de CEO’s van Apple en Google, met het verzoek om zowel X als Grok uit hun app-winkels te verwijderen als reactie op “X’s flagrante gedrag” en “Grok’s misselijkmakende contentgeneratie.”
In de VS probeert de Take It Down Act, die vorig jaar werd ondertekend, online platforms verantwoordelijk te houden voor gemanipuleerde seksuele beelden, maar het geeft deze platforms tot mei van dit jaar de tijd om het proces op te zetten voor het verwijderen van dergelijke afbeeldingen.
‘Hoewel deze beelden nep zijn, is de schade ongelooflijk reëel’ Natalie Grace Brighameen Ph.D. student aan de Universiteit van Washington die sociotechnische schade bestudeert, vertelde CNET. Ze merkt op dat degenen wier beelden op seksuele wijze zijn veranderd, te maken kunnen krijgen met ‘psychologische, somatische en sociale schade, vaak met weinig juridische middelen’.
Hoe Grok gebruikers riskante afbeeldingen laat krijgen
Grok debuteerde in 2023 als Musks meer vrijlopende alternatief ChatGPT, Tweeling en andere chatbots. Dat heeft verontrustend nieuws opgeleverd, bijvoorbeeld in juli, toen de chatbot prees Adolf Hitler en suggereerde dat mensen met een joodse achternaam een grotere kans hadden om online haat te verspreiden.
In december introduceerde xAI een beeldbewerkingsfunctie waarmee gebruikers specifieke bewerkingen van een foto kunnen aanvragen. Dat is de aanleiding voor de recente golf van geseksualiseerde beelden, van zowel volwassenen als minderjarigen. In één verzoek dat CNET heeft gezien, vroeg een gebruiker die reageerde op een foto van een jonge vrouw aan Grok om “haar te veranderen in een tandzijdebikini.”
Grok heeft ook een videogenerator met een “pittige modus“-aanmeldingsoptie voor volwassenen van 18 jaar en ouder, die gebruikers inhoud laat zien die niet veilig is voor het werk. Gebruikers moeten de zinsnede “genereer een pittige video van (beschrijving)” opnemen om de modus te activeren.
Een centrale zorg bij de Grok-tools is of ze het creëren van materiaal over seksueel misbruik van kinderen (CSAM) mogelijk maken. Op 31 december stond in een bericht van het Grok X-account dat afbeeldingen van minderjarigen in minimale kleding “geïsoleerde gevallen” waren en dat “verbeteringen gaande zijn om dergelijke verzoeken volledig te blokkeren.”
Als reactie op een na door Woow Social suggereerde dat Grok simpelweg “stopt met het wijzigen van door gebruikers geüploade afbeeldingen”, antwoordde het Grok-account dat xAI “functies zoals beeldwijziging evalueerde om niet-consensuele schade te beteugelen”, maar zei niet dat de verandering zou worden doorgevoerd.
Volgens NBC News zijn sommige geseksualiseerde afbeeldingen die sinds december zijn gemaakt, verwijderd en zijn sommige accounts die daarom hadden gevraagd, opgeschort.
Conservatieve beïnvloeder en auteur Ashley St. Clair, moeder van een van Musks veertien kinderen, vertelde NBC News deze week heeft Grok talloze geseksualiseerde afbeeldingen van haar gemaakt, waaronder enkele met afbeeldingen uit de tijd dat ze minderjarig was. St. Clair vertelde NBC News dat Grok ermee instemde hiermee te stoppen toen ze erom vroeg, maar dat dit niet het geval was.
“xAI brengt doelbewust en roekeloos mensen op hun platform in gevaar en hoopt aansprakelijkheid te ontlopen alleen maar omdat het ‘AI’ is”, zei Ben Winters, directeur van AI en dataprivacy voor de non-profit Consumer Federation of America, vorige week in een verklaring. “AI is niet anders dan welk ander product dan ook: het bedrijf heeft ervoor gekozen de wet te overtreden en moet daarvoor verantwoordelijk worden gehouden.”
Wat de deskundigen zeggen
Het bronmateriaal voor deze expliciete, niet-consensuele beeldbewerkingen van foto’s van mensen van zichzelf of hun kinderen zijn voor slechte acteurs maar al te gemakkelijk toegankelijk. Maar jezelf tegen dergelijke bewerkingen beschermen is niet zo eenvoudig als nooit foto’s plaatsen, zegt Brigham, de onderzoeker naar sociaaltechnische schade.
“De ongelukkige realiteit is dat zelfs als je geen afbeeldingen online plaatst, andere openbare afbeeldingen van jou in theorie zouden kunnen worden gebruikt voor misbruik”, zei ze.
En hoewel het niet online plaatsen van foto’s een preventieve stap is die mensen kunnen nemen, ” riskeert het wel dat dit een cultuur van het beschuldigen van slachtoffers versterkt”, zei Brigham. “In plaats daarvan moeten we ons concentreren op het beschermen van mensen tegen misbruik door betere platforms te bouwen en X verantwoordelijk te houden.”
Sourojit Ghosheen zesdejaars Ph.D. kandidaat aan de Universiteit van Washington, onderzoekt hoe generatieve AI-tools kan schade veroorzaken en toekomstige AI-professionals begeleiden bij het ontwerpen en bepleiten van veiligere AI-oplossingen.
Ghosh zegt dat het mogelijk is om beveiligingen in kunstmatige intelligentie in te bouwen. In 2023 was hij een van de onderzoekers die de seksualiseringsmogelijkheden van AI onderzocht. Hij merkt op dat de AI-tool voor het genereren van afbeeldingen Stabiele diffusie had een ingebouwde niet-werkveilige drempel. Een prompt die de regels overtrad, zou ertoe leiden dat er een zwarte doos over een twijfelachtig deel van de afbeelding verscheen, hoewel dit niet altijd perfect werkte.
“Het punt dat ik probeer te maken is dat er voorzorgsmaatregelen zijn getroffen in andere modellen”, vertelde Ghosh aan CNET.
Hij merkt ook op dat als gebruikers van ChatGPT- of Gemini AI-modellen bepaalde woorden gebruiken, de chatbots de gebruiker zullen vertellen dat ze niet op die woorden mogen reageren.
“Dit wil allemaal zeggen dat er een manier is om dit heel snel te beëindigen”, zei Ghosh.


