Een nieuwe class action-rechtszaak, maandag ingediend door drie tienermeisjes en hun voogden, beweert dat xAI van Elon Musk materiaal over seksueel misbruik van kinderen heeft gemaakt en verspreid met hun gezichten en gelijkenissen met zijn Grok AI-technologie.
“Hun levens zijn verwoest door het verwoestende verlies aan privacy, waardigheid en persoonlijke veiligheid dat de productie en verspreiding van deze CSAM hebben veroorzaakt”, aldus het dossier. “Het financiële gewin van xAI door het toegenomen gebruik van zijn beeld- en videoproductieproduct ging ten koste van hun welzijn en hun welzijn.”
Van december tot begin januari stond Grok veel AI- en X-gebruikers van sociale media toe om door AI gegenereerde, niet-consensuele intieme afbeeldingen te maken, ook wel bekend als deepfake-porno. Rapporteert schatting dat Grok-gebruikers 4,4 miljoen “uitgeklede” of “naakt gemaakte” afbeeldingen hebben gemaakt, 41% van het totale aantal gemaakte afbeeldingen, gedurende een periode van negen dagen.
X, xAI en zijn veiligheids- en kinderveiligheidsafdelingen reageerden niet onmiddellijk op een verzoek om commentaar.
De golf van ‘uitgeklede’ beelden kwam in beweging verontwaardiging over de hele wereld. De Europese Commissie startte snel een onderzoek, terwijl Maleisië en Indonesië X binnen hun grenzen verboden. Sommige Amerikaanse overheidsvertegenwoordigers riepen Apple en Google op om de app uit hun appstores te verwijderen wegens schending van hun beleid, maar er is geen federaal onderzoek naar X of xAI geopend. Er was een soortgelijke, afzonderlijke class action-rechtszaak ingediend (PDF) door een vrouw uit South Carolina eind januari.
De ontmenselijkende trend benadrukte hoe capabel het moderne is AI-beeldhulpmiddelen zijn in het creëren van inhoud die realistisch lijkt. De nieuwe klacht vergelijkt Groks zelfbenoemde ‘pittige AI’-generatie met de ‘duistere kunsten’, waarbij kinderen gemakkelijk kunnen worden onderworpen aan ‘elke pose, hoe ziek, hoe fetisjistisch ook, hoe onwettig’ ook.
“Voor de kijker lijkt de resulterende video volkomen echt. Voor het kind zullen haar identificerende kenmerken nu voor altijd verbonden zijn aan een video waarin haar eigen seksueel kindermisbruik wordt getoond”, luidt de klacht.
De klacht zegt dat xAI de schuld heeft omdat het geen industriestandaard vangrails heeft gebruikt die zouden voorkomen dat misbruikers deze inhoud zouden maken. Het zegt dat xAI het gebruik van zijn technologie in licentie heeft gegeven aan externe bedrijven in het buitenland, die abonnementen verkochten die misbruikers ertoe brachten afbeeldingen van seksueel kindermisbruik te maken met de gezichten en gelijkenissen van de slachtoffers. De verzoeken liepen via de servers van xAI, wat het bedrijf aansprakelijk maakt, zo stelt de klacht.
De rechtszaak werd aangespannen door drie Jane Does, pseudoniemen die aan de tieners werden gegeven om hun identiteit te beschermen. Jane Doe 1 werd begin december voor het eerst gewaarschuwd voor het feit dat beledigend, door AI gegenereerd seksueel materiaal van haar op het internet circuleerde door een anoniem Instagram-bericht. In de indiening staat dat de anonieme Instagram-gebruiker haar vertelde over een Discord-server, waar het materiaal werd gedeeld. Dat bracht Jane Doe 1 en haar familie, en uiteindelijk de politie, ertoe één dader te vinden en te arresteren.
Lopend onderzoek leidde ertoe dat de families van Jane Does 2 en 3 erachter kwamen dat de afbeeldingen van hun kinderen met xAI-technologie waren omgezet in beledigend materiaal.


