Door kunstmatige intelligentie gegenereerde inhoud is tegenwoordig overal aanwezig, waardoor het steeds moeilijker wordt om feit van fictie te scheiden, vooral als het om feiten gaat laatste nieuws.
Zoek niet verder dan de Iranoorlog. Sinds de VS en Israël Iran op 28 februari hebben aangevallen, hebben onderzoekers een ongekend aantal valse en misleidende beelden geïdentificeerd die zijn gegenereerd gebruik van kunstmatige intelligentie en hebben talloze mensen over de hele wereld bereikt. Onder hen nepbeelden van bomaanslagen die nooit hebben plaatsgevonden, beelden van soldaten die zogenaamd zijn gevangengenomen en door Iran gemaakte propagandavideo’s waarin president Donald Trump en anderen worden afgebeeld als blokvormige, Lego-achtige miniaturen.
Donderdag, de tiende jaarlijkse International Fact-Checking Day, biedt een goede gelegenheid om naar deze evoluerende uitdagingen te kijken.
Verkeerde informatie gecreëerd met AI wordt met ongekende snelheid gedeeld vanuit een eindeloos aantal bronnen. Vanaf het begin van de oorlog tegen Iran werd dergelijke inhoud door verhalen van alle kanten van het conflict gepromoot.
Het Instituut voor Strategische Dialoog, dat desinformatie en online-extremisme opspoort, heeft berichten op sociale media over de oorlog in Iran onderzocht. Een van hun bevindingen was een groep X-accounts die regelmatig door AI gegenereerde inhoud posten en gezamenlijk meer dan 1 miljard views hebben gekregen sinds het conflict begon. Dit werd gedaan door ongeveer twintig accounts, waarvan er vele een blauwe cheque-verificatie hadden.
Hier zijn enkele tips om door AI gegenereerde inhoud te onderscheiden van de werkelijkheid in een online wereld waar dat steeds moeilijker wordt.
Zoek naar visuele aanwijzingen
Toen door AI gegenereerde afbeeldingen zich voor het eerst op grote schaal online verspreidden, waren er vaak duidelijke aanwijzingen dat ze als verzonnen konden worden geïdentificeerd. Misschien had een persoon te weinig – of te veel – vingers of was zijn stem niet synchroon met zijn mond. De tekst was misschien onzinnig. Objecten waren vaak vervormd of misten belangrijke componenten. Naarmate de technologie zich blijft ontwikkelen, zijn deze aanwijzingen niet meer zo gebruikelijk als ze ooit waren, maar het is nog steeds de moeite waard om ernaar te zoeken. Let op inconsistenties, zoals een auto die het ene moment in een video staat en het volgende moment weer verdwenen is, of acties die niet mogelijk zijn volgens de wetten van de natuurkunde. Sommige afbeeldingen kunnen ook overdreven gepolijst zijn of een onnatuurlijke glans hebben.
Zoek een bron
Door AI gegenereerde afbeeldingen worden keer op keer gedeeld. Eén manier om hun authenticiteit (of het gebrek daaraan) vast te stellen, is door op zoek te gaan naar hun oorsprong. Het gebruik van omgekeerd zoeken naar afbeeldingen is een eenvoudige manier om dit te doen. Als je een video bekijkt, maak dan eerst een screenshot. Dit kan leiden tot een social media-account dat specifiek AI-inhoud genereert, een ouder beeld dat verkeerd wordt voorgesteld, of iets geheel onverwachts.
Luister naar de deskundigen
Zoek naar meerdere geverifieerde bronnen die kunnen helpen bij het verifiëren van de afbeelding. Dat kan bijvoorbeeld een factcheck van een gerenommeerd mediakanaal zijn, een verklaring van een publieke figuur of een post op sociale media van een desinformatie-expert. Deze bronnen beschikken mogelijk over geavanceerdere technieken voor het identificeren van door AI gegenereerde inhoud of toegang tot informatie over de afbeelding die niet toegankelijk is voor het grote publiek.
Maak gebruik van technologie
Er zijn veel AI-detectietools die een nuttig startpunt kunnen zijn. Maar wees op uw hoede, want ze zijn niet altijd correct in hun beoordelingen. Afbeeldingen die zijn gegenereerd of gewijzigd met AI met behulp van de Gemini-app van Google, bevatten een onzichtbare digitale watermerktool genaamd SynthID, die de app kan detecteren. Andere AI-creatietools hebben zichtbare watermerken toegevoegd aan de inhoud die ze genereren. Ze zijn echter vaak gemakkelijk te verwijderen, wat betekent dat de afwezigheid van een dergelijk watermerk geen bewijs is dat een afbeelding echt is.
Vertragen
Soms is het gewoon een kwestie van teruggaan naar de basis. Stop, haal diep adem en deel niet meteen iets waarvan je niet weet dat het echt is. Slechte acteurs rekenen er vaak op dat mensen hun reacties op de inhoud laten leiden door hun emoties en bestaande standpunten. Als u naar de opmerkingen kijkt, kunt u aanwijzingen krijgen over de vraag of de afbeelding waarnaar u kijkt echt is of niet. Een andere gebruiker heeft misschien iets opgemerkt dat jij niet hebt opgemerkt, of heeft de originele bron kunnen vinden. Uiteindelijk is het echter niet altijd mogelijk om met 100% nauwkeurigheid te bepalen of een afbeelding door AI is gegenereerd, dus blijf alert op de mogelijkheid dat deze niet echt is.
Zie je iets dat er vals of misleidend uitziet? E-mail ons op FactCheck@ap.org.
Vind AP Factchecks hier: https://apnews.com/APFactCheck.
– Melissa Goldin en Barbara Whitaker, Associated Press



