Home Nieuws De deepfakes zijn overal: hoe u door AI gegenereerde video’s kunt herkennen

De deepfakes zijn overal: hoe u door AI gegenereerde video’s kunt herkennen

3
0
De deepfakes zijn overal: hoe u door AI gegenereerde video’s kunt herkennen

AI-gegenereerd video’s komen vaker voor dan ooit. Deze video’s zijn de sociale media binnengedrongen, van schattige dierenvideo’s tot buitengewone inhoud, en ze worden met de dag realistischer. Hoewel het een jaar geleden misschien gemakkelijk was om een ​​‘nep’-video te herkennen, zijn deze AI-tools zo geavanceerd geworden dat ze miljoenen mensen voor de gek houden.

Nieuwe AI-tools, waaronder Sora van OpenAI, Google zie ik 3 En Nano-banaanhebben de grens tussen de realiteit en door AI gegenereerde fantasieën vervaagd. Nu zwemmen we in een zee van AI-gegenereerd video’s en deepfakes, van nep-aanbevelingen van beroemdheden tot valse ramp uitzendingen.

Als je moeite hebt om de werkelijkheid van de AI te scheiden, ben je niet de enige. Hier zijn enkele nuttige tips die u kunnen helpen de ruis te doorbreken en de waarheid achter elke AI-geïnspireerde creatie te achterhalen. Kijk voor meer informatie op de probleem achter De energiebehoefte van AI-video en wat we in 2026 moeten doen vermijd meer AI-slop.


Mis geen enkele van onze onpartijdige technische inhoud en laboratoriumbeoordelingen. CNET toevoegen als favoriete Google-bron.


Waarom het moeilijk is om Sora AI-video’s te herkennen

Vanuit technisch oogpunt zijn Sora-video’s indrukwekkend in vergelijking met concurrenten zoals Halverwege de reis V1 En Google ik zie er 3. Ze hebben een hoge resolutie, gesynchroniseerde audio en verrassende creativiteit. Met Sora’s populairste functie, genaamd ‘cameo’, kun je de gelijkenissen van andere mensen gebruiken en deze in vrijwel elke door AI gegenereerde scène invoegen. Het is een indrukwekkend hulpmiddel, dat resulteert in angstaanjagend realistische video’s.

Sora sluit zich aan bij Google’s Veo 3, een andere technisch indrukwekkende AI-videogenerator. Dit zijn twee van de meest populaire tools, maar zeker niet de enige. Generatieve media zijn in 2025 een aandachtsgebied geworden voor veel grote technologiebedrijven, waarbij de beeld- en videomodellen klaar staan ​​om elk bedrijf de voorsprong te geven die het wenst in de race om de meest geavanceerde AI op alle modaliteiten te ontwikkelen. Googlen en Open AI hebben dit jaar beide vlaggenschipbeeld- en videomodellen uitgebracht in een duidelijke poging daartoe elkaar overtreffen.

Dat is de reden waarom zoveel experts zich zorgen maken over Sora en andere AI-videogeneratoren. De Sora-app maakt het voor iedereen gemakkelijker om realistisch ogende video’s te maken waarin de gebruikers voorkomen. Vooral publieke figuren en beroemdheden zijn kwetsbaar voor deze deepfakes, en vakbonden als SAG-AFTRA hebben OpenAI ertoe aangezet om de concurrentiepositie te versterken. zijn vangrails. Andere AI-videogeneratoren brengen soortgelijke risico’s met zich mee, naast zorgen over het vullen van het internet met onzinnige AI-slords en kunnen een gevaarlijk instrument zijn voor het verspreiden van desinformatie.

Het identificeren van AI-inhoud is een voortdurende uitdaging voor technologiebedrijven, sociale-mediaplatforms en alle anderen. Maar het is niet geheel hopeloos. Hier zijn enkele dingen waar je op moet letten om te bepalen of een video met Sora is gemaakt.

Zoek naar het Sora-watermerk

Elke video die met de Sora iOS-app wordt gemaakt, bevat een watermerk wanneer u deze downloadt. Het is het witte Sora-logo – een wolkpictogram – dat langs de randen van de video stuitert. Het is vergelijkbaar met de manier waarop TikTok-video’s een watermerk krijgen. Het watermerken van inhoud is een van de grootste manieren waarop AI-bedrijven ons visueel kunnen helpen door AI gegenereerde inhoud te herkennen. Google’s Tweeling Nano-banaan model voegt automatisch een watermerk toe aan de afbeeldingen. Watermerken zijn geweldig omdat ze een duidelijk teken zijn dat de inhoud met behulp van AI is gemaakt.

AI Atlas

Maar watermerken zijn niet perfect. Ten eerste: als het watermerk statisch is (niet beweegt), kan het gemakkelijk worden weggesneden. Zelfs voor bewegende watermerken zoals die van Sora zijn er apps die speciaal zijn ontworpen om ze te verwijderen, dus watermerken alleen kunnen niet volledig worden vertrouwd. Toen OpenAI-CEO Sam Altman werd hierover gevraagdzei hij dat de samenleving zich zal moeten aanpassen aan een wereld waarin iedereen nepvideo’s van iedereen kan maken. Vóór Sora was er natuurlijk geen populaire, gemakkelijk toegankelijke manier om die video’s te maken zonder dat er vaardigheden nodig waren. Maar zijn argument werpt een geldig punt op over de noodzaak om op andere methoden te vertrouwen om de authenticiteit te verifiëren.

Controleer de metagegevens

Ik weet dat je waarschijnlijk denkt dat je op geen enkele manier de metadata van een video kunt controleren om te bepalen of deze echt is. Ik begrijp waar je vandaan komt. Het is een extra stap en je weet misschien niet waar je moet beginnen. Maar het is een geweldige manier om te bepalen of een video met Sora is gemaakt, en het is gemakkelijker dan je denkt.

Metadata is een verzameling informatie die automatisch aan een stukje inhoud wordt gekoppeld wanneer het wordt gemaakt. Het geeft je meer inzicht in hoe een afbeelding of video tot stand is gekomen. Het kan gaan om het type camera dat is gebruikt om een ​​foto te maken, de locatie, datum en tijd waarop een video is gemaakt en de bestandsnaam. Elke foto en video heeft metadata, ongeacht of deze door mensen of door AI is gemaakt. En veel door AI gemaakte inhoud zal ook inhoudsreferenties hebben die de oorsprong van de AI aangeven.

OpenAI maakt deel uit van de Coalition for Content Provenance and Authenticity, wat Sora betekent video’s omvatten C2PA-metadata. U kunt gebruik maken van de verificatie hulpmiddel van het Content Authenticity Initiative om de metadata van een video, afbeelding of document te controleren. Hier is hoe. (Het Content Authenticity Initiative is onderdeel van C2PA.)

Zo controleer je de metadata van een foto, video of document

1. Navigeer naar deze URL: https://verify.contentauthenticity.org/
2. Upload het bestand dat u wilt controleren. Klik vervolgens op Openen.
4. Controleer de informatie in het rechterpaneel. Als het door AI is gegenereerd, moet dit worden vermeld in het gedeelte met de samenvatting van de inhoud.

Wanneer je een Sora-video via deze tool laat zien, wordt aangegeven dat de video “uitgegeven is door OpenAI”, en wordt vermeld dat deze door AI is gegenereerd. Alle Sora-video’s moeten deze inloggegevens bevatten waarmee u kunt bevestigen dat de video met Sora is gemaakt.

Deze tool is, zoals alle AI-detectoren, niet perfect. Er zijn veel manieren waarop AI-video’s detectie kunnen voorkomen. Als je niet-Sora-video’s hebt, bevatten deze mogelijk niet de noodzakelijke signalen in de metadata zodat de tool kan bepalen of ze al dan niet door AI zijn gemaakt. AI-video’s gemaakt met Midjourney worden bijvoorbeeld niet gemarkeerd, zoals ik tijdens mijn tests heb bevestigd. Zelfs als de video door Sora is gemaakt, maar vervolgens via een app van derden (zoals een app voor het verwijderen van watermerken) is uitgevoerd en opnieuw is gedownload, is de kans kleiner dat de tool deze als AI zal markeren.

Tool voor inhoudauthenticiteit

De verificatietool van het Content Authenticity Initiative markeerde correct dat een video die ik met Sora had gemaakt, door AI was gegenereerd, samen met de datum en tijd waarop ik deze had gemaakt.

Kydroauni/CNE

Zoek naar andere AI-labels en voeg uw eigen labels toe

Als je een van de sociale mediaplatforms van Meta gebruikt, zoals Instagram of Facebook, krijg je misschien wat hulp om te bepalen of iets AI is. Meta heeft interne systemen om AI-inhoud te helpen markeren en als zodanig te labelen. Deze systemen zijn niet perfect, maar je kunt duidelijk het label zien voor berichten die zijn gemarkeerd. TikTok En YouTube hebben een vergelijkbaar beleid voor het labelen van AI-inhoud.

De enige echt betrouwbare manier om te weten of iets door AI is gegenereerd, is als de maker het openbaar maakt. Veel sociale-mediaplatforms bieden nu instellingen waarmee gebruikers hun berichten kunnen labelen als door AI gegenereerd. Zelfs een simpele vermelding of vermelding in uw bijschrift kan een grote bijdrage leveren om iedereen te helpen begrijpen hoe iets tot stand is gekomen.

Terwijl je door Sora scrollt, weet je dat niets echt is. Zodra u echter de app verlaat en door AI gegenereerde video’s deelt, wordt het onze collectieve verantwoordelijkheid om bekend te maken hoe een video is gemaakt. Terwijl AI-modellen zoals Sora de grens tussen realiteit en AI blijven vervagen, is het aan ons allemaal om zo duidelijk mogelijk te maken wanneer iets echt is of AI.

Het allerbelangrijkste: blijf waakzaam

Er bestaat niet één waterdichte methode om in één oogopslag nauwkeurig te kunnen zien of een video echt is of AI. Het beste wat u kunt doen om te voorkomen dat u wordt gedupeerd, is door niet automatisch en onvoorwaardelijk alles te geloven wat u online ziet. Volg je instinct, en als iets onwerkelijk aanvoelt, is dat waarschijnlijk ook zo. In deze ongekende, met AI gevulde tijden is je beste verdediging het nauwkeuriger bekijken van de video’s die je bekijkt. Kijk niet snel en scroll weg zonder na te denken. Controleer op verminkte tekst, verdwijnende objecten en bewegingen die de natuurkunde tarten. En geef jezelf geen verwijten als je af en toe voor de gek wordt gehouden. Zelfs experts hebben het mis.

(Openbaarmaking: Ziff Davis, moederbedrijf van CNET, heeft in april een rechtszaak aangespannen tegen OpenAI, omdat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.)



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in