Elon Musk nam X over en foldde Grok, de generatieve onderneming van zijn zusterbedrijf AI tool, met als doel van zijn sociale media-ecosysteem een meer tolerante en “maximalistische vrijheid van meningsuiting” ruimte te maken. Waar hij uiteindelijk mee te maken heeft gekregen is de dreiging van meerdere onderzoeken door toezichthouders nadat mensen Grok begonnen te gebruiken om zonder hun toestemming expliciete afbeeldingen van vrouwen te maken – en soms overgingen op afbeeldingen van minderjarige kinderen.
Het probleem, dat de afgelopen week aan de oppervlakte kwam toen mensen de mogelijkheden van Grok om afbeeldingen te genereren begonnen te bewapenen op onschadelijke berichten van voornamelijk vrouwelijke gebruikers van X, heeft toezichthouders over de hele wereld op de zenuwen gewerkt. Ofcom, de Britse communicatieregulator, heeft “dringend contact” opgenomen met X over de beelden, terwijl de Europese Unie dat wel heeft gedaan heet de mogelijkheid om Grok te gebruiken op zo’n manier ‘verschrikkelijk’ en ‘walgelijk’.
In de drie jaar sinds de release van ChatGPT heeft generatieve AI te maken gehad met talloze uitdagingen op regelgevingsgebied, waarvan er vele nog steeds worden geprocedeerd, waaronder vermeende inbreuk op het auteursrecht bij het trainen van AI-modellen. Maar het gebruik van AI op zo’n schadelijke manier om zich op vrouwen te richten, vormt een belangrijk moreel moment voor de toekomst van de technologie.
“Dit gaat niet over naaktheid. Het gaat over macht, en het gaat over het vernederen van die vrouwen, en het gaat over laten zien wie de leiding heeft en plezier of opwinding krijgen uit het feit dat ze er niet mee instemden”, zegt Carolina Are, een Britse onderzoeker die de schade van sociale-mediaplatforms, algoritmen en AI voor gebruikers, inclusief vrouwen, heeft bestudeerd.
Van zijn kant, X heeft gezegd dat “iedereen die Grok gebruikt of ertoe aanzet illegale inhoud te maken, dezelfde gevolgen zal ondervinden als wanneer hij illegale inhoud uploadt”, in navolging van de bewoordingen van de eigenaar, Elon Musk, die hetzelfde gepost op 3 januari.
Het feit dat het überhaupt mogelijk is om dergelijke afbeeldingen te maken, suggereert hoe schadelijk het is om de vangrails voor generatieve AI weg te nemen, zodat gebruikers in wezen kunnen doen wat ze willen. “Dit is het zoveelste voorbeeld van de enorme verschillen, ongelijkheid en dubbele standaarden van het sociale-mediatijdperk, vooral in deze periode, maar ook van de straffeloosheid van de technologie-industrie”, zegt Are.
Voorafgegaan
Hoewel de omvang en kracht van door AI gemaakte beelden ongekend lijken, zijn sommige experts het er niet mee eens dat ze de eerste echte moraliteitstest voor generatieve AI vormen.
“AI – ik gebruik het hier als een overkoepelende term – is lange tijd een instrument geweest voor discriminatie, vrouwenhaat, homofobie en transfobie, en directe schade, waaronder het aanmoedigen van mensen om een einde aan hun leven te maken, wat depressie en lichaamsdysmorfie veroorzaakt, en meer”, zegt Ari Waldman, hoogleraar rechten aan de Universiteit van Californië, Irvine. “Het creëren van deepfakes van vrouwen en meisjes is absoluut verschrikkelijk, maar het is niet de eerste keer dat AI zich schuldig maakt aan moreel verwerpelijk gedrag”, voegt hij eraan toe.
Maar de vraag wie de juridische verantwoordelijkheid draagt voor de productie van deze beelden is minder duidelijk dan de uitspraken van Musk doen lijken.
Eric Goldman, een professor aan de Santa Clara University School of Law, wijst erop dat de onlangs uitgevaardigde Take it Down Act – die vereist dat platforms de komende maanden maatregelen nemen om illegale of inbreukmakende inhoud binnen 48 uur te verwijderen – nieuwe strafrechtelijke bepalingen heeft toegevoegd tegen ‘intieme visuele afbeeldingen’, een categorie die ook door AI gegenereerde afbeeldingen zou omvatten. Maar of dat ook bikinibeelden betreft van het type dat Grok met de lading maakt, is onzeker.
“Deze wet is nog niet in de rechtbank getest, maar het gebruik van Grok om synthetische seksuele inhoud te creëren is iets wat de wet moet ontmoedigen”, zegt Goldman. “Aangezien we niet weten of de Take It Down Act al de regelgevende oplossing heeft ingevoerd die nodig is om het huidige probleem op te lossen, zou het voorbarig zijn om nog meer wetten te maken.”
Experts als Rebecca Tushnet, een First Amendment Scholar aan de Harvard Law School, zeggen dat de noodzakelijke wetten al bestaan. “De kwestie is het opleggen ervan aan de overtreders, terwijl onder de overtreders ook de politiek machtigen of degenen die de wet minachten vallen”, zegt ze.
De afgelopen jaren zijn er in de VS veel nieuwe anti-deepfake- en expliciete-imagowetten aangenomen, waaronder een federale wet om de verspreiding van seksueel expliciete digitale vervalsingen te bestraffen, legt Mary Anne Franks uit, een expert op het gebied van intellectueel eigendom en technologie aan de George Washington Law School.
Maar de recente ontwikkelingen bij Grok laten zien dat de bestaande maatregelen niet goed genoeg zijn, zegt ze. “We moeten technologie-ontwikkelaars gaan behandelen zoals we andere makers van gevaarlijke producten behandelen: hen aansprakelijk stellen voor schade veroorzaakt door hun producten die ze hadden kunnen en moeten voorkomen.”
Ultieme verantwoordelijkheid
Deze vraag over de uiteindelijke verantwoordelijkheid blijft dus onbeantwoord. En het is de vraag die Musk misschien probeert te vermijden door zijn afkeer te uiten voor wat zijn gebruikers doen.
“De moeilijkere juridische vraag is welke aansprakelijkheid Grok eventueel heeft voor het faciliteren van de creatie van intieme visuele beelden”, legt Goldman uit, wijzend op het ‘vrijwillig’ opleggen van vangrails als onderdeel van de vertrouwens- en veiligheidsprotocollen van bedrijven. “Het is volgens de Amerikaanse wet onduidelijk of deze vangrails de wettelijke aansprakelijkheid verminderen of elimineren,” zegt hij, eraan toevoegend dat het “onduidelijk is of de aansprakelijkheid van het model zal toenemen als een model duidelijk ontoereikende vangrails heeft.”
Waldman stelt dat wetgevers in Washington een wet moeten aannemen die bedrijven wettelijk verantwoordelijk houdt voor het ontwerpen en bouwen van AI-instrumenten die kinderporno of pornografische deepfakes van vrouwen en meisjes kunnen creëren. “Op dit moment wordt de juridische verantwoordelijkheid van technologiebedrijven betwist”, voegt hij eraan toe.
Hoewel de Federal Trade Commission de wettelijke bevoegdheid heeft om actie te ondernemen, is hij bang dat dit niet het geval zal zijn. “De AI-bedrijven hebben zich aangesloten bij de president en de FTC lijkt haar mandaat voor consumentenbescherming in geen enkele echte zin te vervullen.”



