Het digitale uitkleedschandaal van Grok is gruwelijk. De afgelopen dagen hebben talloze vrouwen, inclusief de moeder van een van de kinderen van Elon Musk, hebben gevonden AI-gegenereerde en niet-consensuele seksuele beelden van zichzelf die zich over het internet verspreiden. Volgens één analyse genereerde Grok, tenminste vanaf begin januari, duizenden seksueel suggestieve of uitgeklede afbeeldingen van mensen per uur. (Elon Musk zegt nu dat het genereren van afbeeldingen alleen beschikbaar zal zijn voor betaalde gebruikers.)
Onderzoekers uit verschillende landen zijn onderzoeken gestart om te onderzoeken of xAI de wet heeft overtreden, inclusief regels over pornografische deepfakes en materiaal over seksueel misbruik van kinderen. Natuurlijk is geen van deze regeringen zo verwikkeld in xAI, of Elon Musk, als de VS op dit moment.
Het ministerie van Defensie bood het bedrijf een contract van $ 200 miljoen aan voor Grok vorig jaar. Nu vertelt een functionaris van het Pentagon Snel bedrijf dat het “beleid van het agentschap inzake het gebruik van kunstmatige intelligentie volledig in overeenstemming is met alle toepasselijke wet- en regelgeving”, eraan toevoegend dat “het personeel een mandaat heeft om deze normen te handhaven, en dat elke onwettige activiteit onderworpen zal zijn aan passende disciplinaire maatregelen.”
De regering-Trump heeft ook een reeks overeenkomsten gesloten met xAI om de Grok-chatbot aan te bieden aan federale werknemers voor gebruik op kantoor. Het Witte Huis reageerde niet op een verzoek om commentaar. Carahsoft, een contractant van de federale overheid die zich daarbij heeft aangesloten, ook niet de verkoop vergemakkelijken van xAI’s Grok for Government-productsuite.
De General Services Administration, een wankel maar kritisch federaal agentschap dat verschillende grote overheidsdeals heeft georganiseerd voor AI-bedrijven, waaronder xAI, lijkt de kwestie onder de loep te nemen. Het bureau vertelt Snel bedrijf dat Grok nog steeds zijn eigen interne veiligheidstests onderging voorafgaand aan de integratie in USAi, een enorm AI-platform voor de Amerikaanse overheid dat al technologie van bedrijven als OpenAI, Google en Anthropic bevat.
Maar het is onduidelijk hoe betrokken of actief deze tests eigenlijk zijn. Het is maanden geleden dat deze evaluaties voor het eerst werden besproken en het bureau heeft geen update vrijgegeven over hoe Grok heeft gepresteerd. Snel bedrijf heeft op grond van de Freedom of Information Act een verzoek ingediend voor openbaar beschikbare documenten met betrekking tot de resultaten van die evaluaties, maar heeft geen reactie ontvangen.
“Grok for Government en xAI ondergaan momenteel de vereiste interne veiligheidsbeoordelingen van GSA voorafgaand aan een mogelijke integratie in USAi.gov”, vertelt Marianne Copenhaver, woordvoerder van het agentschap. Snel bedrijf. Elke federale instantie die besluit Grok te kopen via de grotere xAI-overheidsovereenkomst die zij al voor het bedrijf heeft helpen onderhandelen, is “verantwoordelijk voor het evalueren van de modellen die zij kiezen te gebruiken”, voegt ze eraan toe.
Copenhaver ging niet in op de vraag of het bureau de nieuwe neiging van Grok voor het produceren van materiaal over seksueel misbruik van kinderen (CSAM) bestudeerde.
Betrouwbaarheid
In de VS is het mogelijk dat xAI met juridische problemen te maken krijgt. Het gebruik van AI bij het uitkleden van minderjarigen valt bijvoorbeeld al onder de bestaande strafwetten. Daarnaast is er de Take It Down Act, een tweeledig wetsvoorstel opgesteld door Sens. Ted Cruz en Amy Klobuchar en ondertekend door Donald Trump vorig jaar vereist dat platforms niet-consensuele seksuele AI-beelden verwijderen binnen twee dagen nadat ze op de hoogte zijn gesteld.
Het inzetten van Grok binnen de Amerikaanse federale overheid zou een groot risico kunnen zijn, zeggen verschillende experts Snel bedrijf.
Als instanties xAI gebruiken, zullen ambtenaren uiteindelijk extra vangrails moeten eisen om Grok bruikbaar te maken voor de overheid, wat moeilijk zou zijn als xAI uiteindelijk bepaalde gegevens over overheidssystemen zou bewaren, zegt een voormalig functionaris van het Witte Huis.
In de huidige vorm van Grok zouden federale werknemers in theorie CSAM kunnen creëren – een “alarmerende” mogelijkheid, zegt David Nesting, voormalig AI-adviseur van de federale Chief Information Officer. “Als instanties het gebruik van generatieve AI op de werkplek niet monitoren en filteren, lijkt dit een leemte.”
Mike Horton, de voormalige Chief AI Officer van het Transportation Department, zegt dat de CSAM-kwestie van Grok het “onvermijdelijke resultaat is van een Wild West-cultuur in Silicon Valley en de federale overheid om ‘snel te handelen en dingen kapot te maken.’” Vangrails zijn noodzakelijk, zegt hij, om te voorkomen dat dit soort situaties zich überhaupt voordoen.
“Ongebreidelde AI-acceleratie zonder vangrails is als het besturen van een Maserati met een snelheid van 200 km/uur zonder remmen. Zo snel kun je betrouwbaar en veilig rijden omdat van de remmen, niet ondanks die remmen”, zegt hij.



