De regering-Trump is daar niet voor terugdeinzen door AI gegenereerde beelden online delenomarmen cartoonachtige beelden en memes en deze promoten op officiële kanalen van het Witte Huis.
Maar een bewerkt – en realistisch – beeld van een burgerrechtenadvocaat Levy Armstrong voor sommigen in tranen na zijn arrestatie leidt tot nieuwe alarmsignalen over de manier waarop de regering de grenzen tussen wat echt en nep is vervaagt.
Het account van minister van Binnenlandse Veiligheid Kristi Noem plaatste het bericht originele afbeelding van de arrestatie van Levy Armstrong voordat het officiële Witte Huis-account een gewijzigde afbeelding plaatste waarop ze huilde. De bewerkte foto maakt deel uit van een stortvloed aan AI-bewerkte beelden die sinds de Tweede Wereldoorlog door het hele politieke spectrum zijn gedeeld fatale schietpartijen van Renee Good en Alex Pretti door Amerikaanse grenspolitieagenten in Minneapolis
Het gebruik van kunstmatige intelligentie door het Witte Huis heeft deskundigen op het gebied van desinformatie echter verontrust. Zij vrezen dat de verspreiding van door AI gegenereerde of bewerkte beelden de publieke perceptie van de waarheid ondermijnt en wantrouwen zaait.
Als reactie op kritiek op het bewerkte beeld van Levy Armstrong hebben functionarissen van het Witte Huis de post verdubbeld, met plaatsvervangend communicatiedirecteur Kaelan Dorr schrijft over X dat de ‘memes zullen doorgaan’. Abigail Jackson, plaatsvervangend persvoorlichter van het Witte Huis, heeft ook een bericht gedeeld het spotten met de kritiek.
David Rand, hoogleraar informatica aan de Cornell University, zegt dat het gewijzigde beeld een meme noemt “het lijkt zeker een poging om het als een grap of een humoristische post te presenteren, zoals hun eerdere cartoons. Dit is vermoedelijk bedoeld om hen te beschermen tegen kritiek op het plaatsen van gemanipuleerde media.” Hij zei dat het doel van het delen van het gewijzigde arrestatiebeeld “veel dubbelzinniger” lijkt dan de cartoonachtige afbeeldingen de administratie heeft in het verleden gedeeld.
Memes hebben altijd gelaagde boodschappen met zich meegebracht die grappig of informatief zijn voor mensen die ze begrijpen, maar die voor buitenstaanders niet te ontcijferen zijn. Met AI verbeterde of bewerkte beelden zijn slechts het nieuwste hulpmiddel dat het Witte Huis gebruikt om het segment van de achterban van Trump te bereiken dat veel tijd online doorbrengt, zegt Zach Henry, een Republikeinse communicatieadviseur die Total Virality heeft opgericht, een influencer. marketing stevig.
“Mensen die definitief online zijn, zullen het zien en onmiddellijk herkennen als een meme”, zei hij. “Je grootouders zien het misschien en begrijpen de meme niet, maar omdat het er echt uitziet, leidt het ertoe dat ze hun kinderen of kleinkinderen ernaar vragen.”
Des te beter als het een felle reactie uitlokt, waardoor het viraal gaat, zei Henry, die over het algemeen het werk van het socialemediateam van het Witte Huis prees.
De creatie en verspreiding van gewijzigde beelden, vooral wanneer ze door geloofwaardige bronnen worden gedeeld, “kristalliseert een idee van wat er gebeurt, in plaats van te laten zien wat er werkelijk gebeurt”, zegt Michael A. Spikes, professor aan de Northwestern University en onderzoeker op het gebied van nieuwsmediageletterdheid.
“De overheid moet een plek zijn waar je de informatie kunt vertrouwen, waar je kunt zeggen dat deze juist is, omdat zij de verantwoordelijkheid hebben om dat te doen”, zei hij. “Door dit soort inhoud te delen en dit soort inhoud te creëren… ondermijnt het het vertrouwen – ook al sta ik altijd een beetje sceptisch tegenover de term vertrouwen – maar het vertrouwen dat we zouden moeten hebben in onze federale overheid om ons nauwkeurige, geverifieerde informatie te geven. Het is een echt verlies, en het baart me echt veel zorgen.”
Spikes zei dat hij de ‘institutionele crises’ rond wantrouwen in nieuwsorganisaties en het hoger onderwijs al ziet, en dat dit gedrag van officiële kanalen deze kwesties aanwakkert.
Ramesh Srinivasan, professor aan de UCLA en presentator van de Utopias-podcast, zei dat veel mensen zich nu afvragen waar ze terecht kunnen voor ‘betrouwbare informatie’. “AI-systemen zullen deze problemen van een gebrek aan vertrouwen, een gebrek aan zelfs maar begrip van wat als realiteit, waarheid of bewijs kan worden beschouwd, alleen maar verergeren, versterken en versnellen”, zei hij.
Srinivasan zei dat hij van mening is dat het Witte Huis en andere functionarissen die door AI gegenereerde inhoud delen, niet alleen gewone mensen uitnodigt om soortgelijke inhoud te blijven posten, maar ook toestemming geeft aan anderen die zich in geloofwaardige en machtsposities bevinden, zoals beleidsmakers, om ongelabelde synthetische inhoud te delen. Hij voegde eraan toe dat, gezien het feit dat sociale-mediaplatforms de neiging hebben om extreme en samenzweerderige inhoud ‘algoritmisch te bevoorrechten’ – die tools voor het genereren van AI gemakkelijk kunnen creëren – ‘we een hele reeks uitdagingen voor de boeg hebben.’
Een toevloed van door AI gegenereerde video’s over immigratie- en douanehandhavingsacties, protesten en interacties met burgers heeft zich al verspreid op sociale media. Na René Goed werd neergeschoten door een ICE-officier terwijl ze in haar auto zat, begonnen er verschillende door AI gegenereerde video’s te circuleren van vrouwen die wegreden van ICE-agenten die hen zeiden te stoppen. Er circuleren ook veel verzonnen video’s van immigratie-invallen en van mensen die ICE-agenten confronteren, vaak tegen hen schreeuwend of voedsel in hun gezicht gooien.
Jeremy Carrasco, een maker van inhoud die gespecialiseerd is in mediageletterdheid en het ontmaskeren van virale AI-video’s, zei dat het grootste deel van deze video’s waarschijnlijk afkomstig is van accounts die zich bezighouden met ‘engagementfarming’, of die willen profiteren van klikken door inhoud te genereren met populaire trefwoorden en zoektermen zoals ICE. Maar hij zei ook dat de video’s veel aandacht krijgen van mensen die tegen ICE en DHS zijn en ze zouden kunnen beschouwen als ‘fanfictie’ of als ‘wishful thinking’, in de hoop dat ze echte tegenstand tegen de organisaties en hun functionarissen zien.
Toch gelooft Carrasco ook dat de meeste kijkers niet kunnen zeggen of wat ze zien nep is, en vraagt hij zich af of ze zouden weten “wat echt is of niet als het er echt toe doet, bijvoorbeeld als de inzet veel hoger is.”
Zelfs als er flagrante tekenen zijn van AI-generatie, zoals straatnaamborden met wartaal erop of andere voor de hand liggende fouten, zou een kijker alleen in het “best-case scenario” slim genoeg zijn of voldoende aandacht besteden om het gebruik van AI te registreren.
Deze kwestie beperkt zich uiteraard niet tot nieuws rond immigratiehandhaving en protesten. Verzonnen en verkeerd weergegeven beelden na de arrestatie van de afgezette Venezolaanse leider Nicolaas Maduro ontplofte eerder deze maand online. Deskundigen, waaronder Carrasco, denken dat de verspreiding van door AI gegenereerde politieke inhoud alleen maar gewoner zal worden.
Carrasco is van mening dat de wijdverbreide implementatie van een watermerksysteem dat informatie over de oorsprong van een stukje media in de metadatalaag insluit, een stap in de richting van een oplossing zou kunnen zijn. De Coalition for Content Provenance and Authenticity heeft een dergelijk systeem ontwikkeld, maar Carrasco denkt niet dat dit de komende minstens een jaar op grote schaal zal worden toegepast.
“Het zal nu voor altijd een probleem blijven”, zei hij. Ik denk niet dat mensen begrijpen hoe erg dit is.”
—Kaitlyn Huamani, AP-technologieschrijver
Associated Press-schrijvers Jonathan J. Cooper en Barbara Ortutay hebben bijgedragen aan dit rapport.


