De beelden waren echt, geverifieerd en prachtig: een beveiligingscamerafragment van een coyote die stuiterde op een trampoline in de achtertuin in Los Angeles. Dagen nadat de video viraal ging, begonnen ook bijna identieke kangoeroes, beren en konijnen te circuleren, allemaal gegenereerd door AI. Miljoenen mensen deelden ze, in de overtuiging dat ze weer een glimp hadden opgevangen van dieren die zich hilarisch gedroegen.
Het was een grappige verwarring, maar het was ook een waarschuwing.
Door AI gegenereerde videotools zijn veel verder gegaan dan het produceren van surrealistische of duidelijk gemanipuleerde clips. Ze imiteren nu op overtuigende wijze de formaten die we instinctief het meest vertrouwen: CCTV, dashcams, bodycams van de politie, natuurcamera’s en ooggetuigenbeelden uit de hand. Dit zijn de clips die vorm geven aan het publieke begrip tijdens protesten, rampen, geweld en noodsituaties. En de neppe exemplaren zijn niet meer van echt te onderscheiden.
Door AI gegenereerd realisme is al in de nieuwscyclus terechtgekomen
Bij Storyful verifiëren we duizenden echte video’s voor redactiekamers en merken over de hele wereld. Dit jaar hebben we een test uitgevoerd: we hebben echte laatste nieuwskoppen van ons eigen platform in een van de nieuwste AI-videomodellen geplaatst.
Binnen enkele seconden kregen we fragmenten die de textuur en het perspectief van ooggetuigenverslagen nabootsten. Geen glanzende AI-experimenten, nieuwsachtige beelden die tijdens een actueel verhaal op plausibele wijze in de inbox van de redactiekamer terecht kunnen komen.
Naast de originele, echte clips moesten zelfs getrainde journalisten langzamer gaan werken en de details nauwkeurig onderzoeken.
Beschouw dit voorbeeld, geïnspireerd door een geverifieerde authentiek video gepost op sociale media in de nasleep van zware moessonregens in India:
Brandweerlieden redden man die zich vastklampt aan paal tijdens woedende overstromingen in India
Een man werd op dinsdag 16 september gered in de Indiase deelstaat Uttarakhand nadat hij zich meer dan vier uur aan een elektriciteitspaal had vastgeklampt terwijl dodelijke overstromingen om hem heen raasden, meldden lokale media.
Echt:
En dit volledig synthetische video, gemaakt door OpenAI’s videogenerator-app Sora de titel van de eerste video te vragen.
Nep:
Dit is niet langer een theoretische toekomst. Het gebeurt op dit moment.
De vangrails glijden al weg. Tutorials circuleren openlijk op Reddit waarin wordt uitgelegd hoe je het watermerk kunt verwijderen van video’s die zijn gemaakt door een van de populairste AI-videogeneratoren, OpenAI’s Sora. Beperkingen op bepaalde AI-prompts kunnen worden omzeild – als deze bestaan – of modellen kunnen lokaal worden uitgevoerd zonder beperkingen op zeer realistische inhoud. En omdat deze tools op verzoek nepbeelden van cameratoezicht of rampen kunnen maken, is het niet de vraag of AI overtuigende video’s kan maken van dingen die nooit zijn gebeurd. Zijn Hoe ver zal een overtuigende nep zich verspreiden voordat iemand het controleert?
Waarom door AI gegenereerde video’s geloofwaardig aanvoelen
De belangrijkste verandering in door AI gegenereerde video is niet alleen het uiterlijk, maar ook het gedrag ervan.
Echte ooggetuigenbeelden bevatten de ruwe kantjes die bij het echte leven horen: een trillende hand, de camera op de grond gericht voordat de actie begint, lange stukken waarin niets gebeurt, imperfecte hoeken en gemiste details.
AI repliceert deze momenten nog niet. Het gaat rechtstreeks naar de actie, perfect in het midden gekaderd, helder belicht en met het tempo als een scène die is gebouwd voor maximale impact. Het biedt het moment dat we verwachten te zien, zonder de rommelige menselijke aanloop die er meestal omheen hangt.
De reden is simpel. De meeste modellen zijn nog steeds zwaar getraind op filmmateriaal in plaats van op chaotische, draagbare, door gebruikers gegenereerde inhoud. Ze begrijpen drama beter dan dat ze de werkelijkheid begrijpen. Die kloof zorgt ervoor dat verificatieteams voorlopig het verschil kunnen ontdekken.
Naarmate modellen evolueren en het schrijven van prompts verbetert, zullen deze gedragsmatige aanwijzingen vervagen. De trainingsgegevens voor deze videobasismodellen omvatten zowel wankele omstandervideo’s als vlotte documentaireswaardoor ze hun stijl en gevoel voor realisme op kundige wijze kunnen imiteren.
Het vertrouwen van het publiek is al aan het eroderen
Het digitale nieuwsrapport van Reuters vondsten dat 58% van het wereldwijde publiek bang is dat ze online niet langer echt van nep kunnen onderscheiden. Die angst gold vroeger vooral voor de politiek en de propaganda. Nu is het van toepassing op onschadelijke video’s in de achtertuin.
Dit markeert een diepere psychologische verschuiving. Zodra een kijker begint te twijfelen aan alledaagse video’s, schakelt hij dat scepticisme niet meer in of uit. Als ze een hondenredding in twijfel trekken, zullen ze ook een protest in twijfel trekken. Als ze een grap in twijfel trekken, zullen ze ook een oorlogsgebied in twijfel trekken.
Vertrouwen stort niet in één enkel dramatisch moment in. Het erodeert druppel voor druppel, door duizenden kleine onzekerheden. En naarmate door AI gegenereerde video overvloedig wordt, wordt authentiek beeldmateriaal schaars.
Hoe weet je wanneer een video door AI is gegenereerd?
AI-detectietools kunnen een nuttig onderdeel zijn van uw workflow, maar zijn geen vervanging voor menselijke verificatie. Volgens de analyse van Storyful bereiken de huidige tools onder ideale omstandigheden een nauwkeurigheid van 65-75%, maar daalt die nauwkeurigheid binnen enkele weken na de release van een nieuw AI-model onder de 50%. Dit zijn de signalen die de verificatieteams van Storyful dagelijks gebruiken, signalen die het publiek snel kan leren herkennen.
- AI begint bij de climax.
Echte beelden bevatten bijna altijd dode tijd of onhandige handelingen vóór de actie. - Onderwerpen bevinden zich perfect in het midden van het beeld.
Ooggetuigen leggen zelden de chaos van het laatste nieuws vast zoals cinematografen. - De beweging is te soepel
Echte, door gebruikers gegenereerde inhoud stottert, schudt, herfocust en glijdt weg. - Tijdstempels, bewegwijzering en kentekenplaten worden bij nauwkeurig onderzoek afgebroken
AI benadert deze details vaak in plaats van ze nauwkeurig weer te geven. - Clips van rampen en dieren in het wild zien er ‘te beheerst’ uit.
Het echte leven is onzeker. AI ziet er vaak geënsceneerd uit.
Deze signalen zullen niet eeuwig standhouden, maar op dit moment bieden ze cruciale bescherming.
Authenticiteit is nu een troef
Technologieplatforms kunnen meer vangrails toevoegen aan hun videogeneratortools, toezichthouders kunnen raamwerken bijwerken, detectietools kunnen verbeteren, en dat geldt ook voor onze eigen kritische vermogens. En terwijl redactiekamers het publiek helpen door het moeras van namaak te navigeren, is transparantie de meest impactvolle manier waarop ze het vertrouwen kunnen herstellen.
Het publiek vertrouwt niet langer “zeggen bronnen.” Ze willen zien hoe een journalist of een redactiekamer weet dat iets echt is.
Steeds meer nieuwsorganisaties gebruiken verificatie-forward-formaten, waaronder BBC-verifieer En CBS Nieuws bevestigddie open-source en forensische controles integreren in de rapportage, waarbij herkomst, afbeeldingen, metadatapatronen en geolocatie worden onderzocht wanneer dit relevant is. Verhaalvol Nieuwsdraad voorziet al onze partners van deze fundamentele maar essentiële details over elke video op ons platform.
Deze transparantie wordt de belangrijkste onderscheidende factor in een omgeving waarin door AI gegenereerde video goedkoop, snel en overal is. Hoe meer door AI gegenereerde beelden het ecosysteem overspoelen, hoe geloofwaardiger organisaties zijn die het tonen van hun werk tot een belangrijk onderdeel van het verhaal maken.
De meest onvergetelijke video’s op internet waren nooit perfect. Ze waren onvoorspelbaar, gebrekkig en menselijk, het soort momenten dat AI zich nog steeds moeilijk kan voorstellen. Door AI gegenereerde beelden kunnen nu de beeldtaal van de waarheid nabootsen. Maar het kan de willekeur van het echte leven nog niet reproduceren. Wat er op het spel staat als dat wel het geval is, is niet alleen maar desinformatie. Het gaat om het vermogen van het publiek om te vertrouwen op wat het ziet op de momenten die er het meest toe doen.
James Law is hoofdredacteur van Verhaalvoleen persbureau dat wordt gebruikt door 70 procent van de twintig grootste redactiekamers ter wereld, gespecialiseerd in het verifiëren van het laatste nieuws en virale video.



