Weet je nog dat ‘nep’ op internet een slecht gephotoshopte foto betekende? Ach, eenvoudiger tijden. Nu zwemmen we allemaal in een zee van Door AI gegenereerde video’s en deepfakes, van nepvideo’s van beroemdheden tot valse rampenuitzendingenen het wordt bijna onmogelijk om te weten wat echt is.
En het staat op het punt nog erger te worden. Sora, de AI-videotool van OpenAI, vertroebelt nu al de wateren. Maar nu is de nieuwe, virale ‘social media-app’, Sora 2, het populairste ticket op internet. Hier is de kicker: het is een feed in TikTok-stijl, alleen op uitnodiging, waarbij alles 100% nep is.
De auteur noemde het al een “deepfake koortsdroom‘, en dat is precies wat het is. Het is een platform dat met de dag beter wordt in het laten lijken van fictie op feiten, en de risico’s zijn enorm. Als je moeite hebt om de werkelijkheid van de AI te scheiden, ben je niet de enige.
Hier zijn enkele nuttige tips die u kunnen helpen de ruis te doorbreken en de waarheid van elke door AI geïnspireerde situatie te achterhalen.
Mis geen enkele van onze onpartijdige technische inhoud en laboratoriumbeoordelingen. CNET toevoegen als favoriete Google-bron.
Vanuit technisch oogpunt zijn Sora-video’s indrukwekkend in vergelijking met concurrenten zoals Midjourney’s V1 En Google zie ik 3. Ze hebben een hoge resolutie, gesynchroniseerde audio en verrassende creativiteit. Met Sora’s populairste functie, genaamd ‘cameo’, kun je de gelijkenissen van andere mensen gebruiken en deze in vrijwel elke door AI gegenereerde scène invoegen. Het is een indrukwekkend hulpmiddel, dat resulteert in angstaanjagend realistische video’s.
Daarom maken zoveel experts zich zorgen over Sora. De app maakt het voor iedereen gemakkelijker om gevaarlijke deepfakes te creëren, verkeerde informatie te verspreiden en de grens tussen wat echt is en wat niet te vervagen. Vooral publieke figuren en beroemdheden zijn kwetsbaar voor deze deepfakes, en vakbonden ook SAG-AFTRA heeft OpenAI ertoe aangezet zijn vangrails te versterken.
Het identificeren van AI-inhoud is een voortdurende uitdaging voor technologiebedrijven, sociale-mediaplatforms en alle anderen. Maar het is niet geheel hopeloos. Hier zijn enkele dingen waar je op moet letten om te bepalen of een video met Sora is gemaakt.
Zoek naar het Sora-watermerk
Elke video die met de Sora iOS-app wordt gemaakt, bevat een watermerk wanneer u deze downloadt. Het is het witte Sora-logo – een wolkpictogram – dat langs de randen van de video stuitert. Het is vergelijkbaar met de manier waarop TikTok-video’s een watermerk krijgen.
Het watermerken van inhoud is een van de grootste manieren waarop AI-bedrijven ons visueel kunnen helpen door AI gegenereerde inhoud te herkennen. Google’s Tweelingen “nanobanaan”-modelgeeft bijvoorbeeld automatisch een watermerk aan de afbeeldingen. Watermerken zijn geweldig omdat ze een duidelijk teken zijn dat de inhoud met behulp van AI is gemaakt.
Maar watermerken zijn niet perfect. Ten eerste: als het watermerk statisch is (niet beweegt), kan het gemakkelijk worden weggesneden. Zelfs voor het verplaatsen van watermerken zoals die van Sora zijn er apps die speciaal zijn ontworpen om ze te verwijderen, dus watermerken alleen kunnen niet volledig worden vertrouwd. Toen OpenAI CEO Sam Altman hierover werd gevraagd, antwoordde hij gezegd de samenleving zal zich moeten aanpassen aan een wereld waarin iedereen nepvideo’s van iedereen kan maken. Vóór OpenAI’s Sora was er natuurlijk geen populaire, gemakkelijk toegankelijke manier om die video’s te maken zonder dat er vaardigheden nodig waren. Maar zijn argument werpt een geldig punt op over de noodzaak om op andere methoden te vertrouwen om de authenticiteit te verifiëren.
Controleer de metagegevens
Ik weet het, je denkt waarschijnlijk dat je op geen enkele manier de metadata van een video kunt controleren om te bepalen of deze echt is. Ik begrijp waar je vandaan komt; het is een extra stap en je weet misschien niet waar je moet beginnen. Maar het is een geweldige manier om te bepalen of een video met Sora is gemaakt, en het is gemakkelijker dan je denkt.
Metadata is een verzameling informatie die automatisch aan een stukje inhoud wordt gekoppeld wanneer het wordt gemaakt. Het geeft je meer inzicht in hoe een afbeelding of video tot stand is gekomen. Het kan gaan om het type camera dat is gebruikt om een foto te maken, de locatie, datum en tijd waarop een video is gemaakt en de bestandsnaam. Elke foto en video heeft metadata, ongeacht of deze door mensen of door AI is gemaakt. En veel door AI gemaakte inhoud zal ook inhoudsreferenties hebben die de oorsprong van de AI aangeven.
OpenAI maakt deel uit van de Coalition for Content Provenance and Authenticity, wat voor u betekent dat Sora-video’s erbij betrekken C2PA-metadata. U kunt gebruik maken van de Verificatietool van het Content Authenticity Initiative om de metadata van een video, afbeelding of document te controleren. Hier is hoe. (Het Content Authenticity Initiative is onderdeel van C2PA.)
Zo controleer je de metadata van een foto, video of document:
1. Navigeer naar deze URL: https://verify.contentauthenticity.org/
2. Upload het bestand dat u wilt controleren.
3. Klik op Openen.
4. Controleer de informatie in het rechterpaneel. Als het door AI is gegenereerd, moet dit worden vermeld in het gedeelte met de samenvatting van de inhoud.
Wanneer je een Sora-video via deze tool laat zien, wordt aangegeven dat de video “uitgegeven is door OpenAI”, en wordt vermeld dat deze door AI is gegenereerd. Alle Sora-video’s moeten deze inloggegevens bevatten waarmee u kunt bevestigen dat de video met Sora is gemaakt.
Deze tool is, zoals alle AI-detectoren, niet perfect. Er zijn veel manieren waarop AI-video’s detectie kunnen voorkomen. Als je andere, niet-Sora-video’s hebt, bevatten deze mogelijk niet de noodzakelijke signalen in de metadata zodat de tool kan bepalen of ze al dan niet door AI zijn gemaakt. AI-video’s gemaakt met Midjourney worden bijvoorbeeld niet gemarkeerd, zoals ik tijdens mijn tests heb bevestigd. Zelfs als de video door Sora is gemaakt, maar vervolgens via een app van derden (zoals een app voor het verwijderen van watermerken) is uitgevoerd en opnieuw is gedownload, is de kans kleiner dat de tool deze als AI zal markeren.
De verificatietool van het Content Authenticity Initiative signaleerde correct dat een video die ik met Sora maakte, door AI was gegenereerd, samen met de datum en tijd waarop ik deze had gemaakt.
Zoek naar andere AI-labels en voeg uw eigen labels toe
Als je een van de sociale mediaplatforms van Meta gebruikt, zoals Instagram of Facebook, krijg je misschien wat hulp om te bepalen of iets AI is. Meta heeft interne systemen aanwezig om AI-inhoud te helpen markeren en als zodanig te labelen. Deze systemen zijn niet perfect, maar je kunt duidelijk het label zien voor berichten die zijn gemarkeerd. TikTok En YouTube hebben een vergelijkbaar beleid voor het labelen van AI-inhoud.
De enige echt betrouwbare manier om te weten of iets door AI is gegenereerd, is als de maker het openbaar maakt. Veel sociale-mediaplatforms bieden nu instellingen waarmee gebruikers hun berichten kunnen labelen als door AI gegenereerd. Zelfs een simpele vermelding of vermelding in uw bijschrift kan een grote bijdrage leveren om iedereen te helpen begrijpen hoe iets tot stand is gekomen.
Terwijl je door Sora scrollt, weet je dat niets echt is. Maar zodra u de app verlaat en door AI gegenereerde video’s deelt, is het onze collectieve verantwoordelijkheid om bekend te maken hoe een video is gemaakt. Terwijl AI-modellen zoals Sora de grens tussen realiteit en AI blijven vervagen, is het aan ons allemaal om zo duidelijk mogelijk te maken wanneer iets echt is of AI.
Het allerbelangrijkste: blijf waakzaam
Er bestaat niet één onfeilbare methode om in één oogopslag nauwkeurig te kunnen zien of een video echt is of AI. Het beste wat u kunt doen om te voorkomen dat u wordt gedupeerd, is door niet automatisch en onvoorwaardelijk alles te geloven wat u online ziet. Volg je instinct: als iets onwerkelijk aanvoelt, is dat waarschijnlijk ook zo. In deze ongekende, met AI gevulde tijden is je beste verdediging het nauwkeuriger bekijken van de video’s die je bekijkt. Kijk niet snel en scroll weg zonder na te denken. Controleer op verminkte tekst, verdwijnende objecten en bewegingen die de natuurkunde tarten. En geef jezelf geen verwijten als je af en toe voor de gek wordt gehouden; zelfs experts hebben het mis.
(Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, heeft in april een rechtszaak aangespannen tegen OpenAI, omdat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.)


