Home Nieuws Echt versus AI: uw deepfake-spottersgids voor door AI gegenereerde video’s

Echt versus AI: uw deepfake-spottersgids voor door AI gegenereerde video’s

6
0
Echt versus AI: uw deepfake-spottersgids voor door AI gegenereerde video’s

Voorbij zijn de dagen dat een “nep” op internet gemakkelijk te herkennen was, vaak alleen maar een slecht gephotoshopte foto. Nu zwemmen we in een zee van Door AI gegenereerde video’s en deepfakes, van nep-aanbevelingen van beroemdheden tot valse rampenuitzendingen. De nieuwste technologie is ongemakkelijk slim geworden in het vervagen van de grenzen tussen realiteit en fictie, waardoor het bijna onmogelijk wordt om te onderscheiden wat echt is.

En de situatie escaleert snel. OpenAI’s Sora vertroebelt de wateren al, maar nu is zijn virale ‘sociale media-app’ Soera 2is het populairste – en meest misleidende – ticket op internet. Het is een feed in TikTok-stijl waarin alles 100% nep is. Deze auteur heeft het een “deepfake koortsdroom“en met goede reden. Het platform wordt voortdurend verbeterd als het gaat om het realistisch laten lijken van fictie, met aanzienlijke risico’s uit de echte wereld.

Als je moeite hebt om de werkelijkheid van de AI te scheiden, ben je niet de enige. Hier zijn enkele nuttige tips die u kunnen helpen de ruis te doorbreken en de waarheid achter elke AI-geïnspireerde creatie te achterhalen.


Mis geen enkele van onze onpartijdige technische inhoud en laboratoriumbeoordelingen. CNET toevoegen als favoriete Google-bron.


Mijn AI-expert neemt Sora-video’s over

Vanuit technisch oogpunt zijn Sora-video’s indrukwekkend in vergelijking met concurrenten zoals Halverwege de reis V1 En Google ik zie er 3. Ze hebben een hoge resolutie, gesynchroniseerde audio en verrassende creativiteit. Met Sora’s populairste functie, genaamd ‘cameo’, kun je de gelijkenissen van andere mensen gebruiken en deze in vrijwel elke door AI gegenereerde scène invoegen. Het is een indrukwekkend hulpmiddel, dat resulteert in angstaanjagend realistische video’s.

Daarom maken zoveel experts zich zorgen over Sora. De app maakt het voor iedereen gemakkelijker om gevaarlijke deepfakes te creëren, verkeerde informatie te verspreiden en de grens tussen wat echt is en wat niet te vervagen. Vooral publieke figuren en beroemdheden zijn kwetsbaar voor deze deepfakes, en vakbonden als SAG-AFTRA hebben OpenAI ertoe aangezet zijn vangrails versterken.

Het identificeren van AI-inhoud is een voortdurende uitdaging voor technologiebedrijven, sociale-mediaplatforms en alle anderen. Maar het is niet geheel hopeloos. Hier zijn enkele dingen waar je op moet letten om te bepalen of een video met Sora is gemaakt.

Zoek naar het Sora-watermerk

Elke video die met de Sora iOS-app wordt gemaakt, bevat een watermerk wanneer u deze downloadt. Het is het witte Sora-logo – een wolkpictogram – dat langs de randen van de video stuitert. Het is vergelijkbaar met de manier waarop TikTok-video’s een watermerk krijgen. Het watermerken van inhoud is een van de grootste manieren waarop AI-bedrijven ons visueel kunnen helpen door AI gegenereerde inhoud te herkennen. Google’s Tweeling “nanobanaan”-model automatisch een watermerk aan de afbeeldingen. Watermerken zijn geweldig omdat ze een duidelijk teken zijn dat de inhoud met behulp van AI is gemaakt.

AI Atlas

Maar watermerken zijn niet perfect. Ten eerste: als het watermerk statisch is (niet beweegt), kan het gemakkelijk worden weggesneden. Zelfs voor bewegende watermerken zoals die van Sora zijn er apps die speciaal zijn ontworpen om ze te verwijderen, dus watermerken alleen kunnen niet volledig worden vertrouwd. Toen OpenAI-CEO Sam Altman werd hierover gevraagdzei hij dat de samenleving zich zal moeten aanpassen aan een wereld waarin iedereen nepvideo’s van iedereen kan maken. Vóór Sora was er natuurlijk geen populaire, gemakkelijk toegankelijke manier om die video’s te maken zonder dat er vaardigheden nodig waren. Maar zijn argument werpt een geldig punt op over de noodzaak om op andere methoden te vertrouwen om de authenticiteit te verifiëren.

Controleer de metagegevens

Ik weet dat je waarschijnlijk denkt dat je op geen enkele manier de metadata van een video kunt controleren om te bepalen of deze echt is. Ik begrijp waar je vandaan komt. Het is een extra stap en je weet misschien niet waar je moet beginnen. Maar het is een geweldige manier om te bepalen of een video met Sora is gemaakt, en het is gemakkelijker dan je denkt.

Metadata is een verzameling informatie die automatisch aan een stukje inhoud wordt gekoppeld wanneer het wordt gemaakt. Het geeft je meer inzicht in hoe een afbeelding of video tot stand is gekomen. Het kan gaan om het type camera dat is gebruikt om een ​​foto te maken, de locatie, datum en tijd waarop een video is gemaakt en de bestandsnaam. Elke foto en video heeft metadata, ongeacht of deze door mensen of door AI is gemaakt. En veel door AI gemaakte inhoud zal ook inhoudsreferenties hebben die de oorsprong van de AI aangeven.

OpenAI maakt deel uit van de Coalition for Content Provenance and Authenticity, wat Sora betekent video’s omvatten C2PA-metagegevens. U kunt gebruik maken van de verificatie hulpmiddel van het Content Authenticity Initiative om de metadata van een video, afbeelding of document te controleren. Hier is hoe. (Het Content Authenticity Initiative is onderdeel van C2PA.)

Hoe u de metadata van een foto, video of document kunt controleren

1. Navigeer naar deze URL: https://verify.contentauthenticity.org/
2. Upload het bestand dat u wilt controleren.
3. Klik op Openen.
4. Controleer de informatie in het rechterpaneel. Als het door AI is gegenereerd, moet dit worden vermeld in het gedeelte met de samenvatting van de inhoud.

Wanneer je een Sora-video via deze tool laat zien, wordt aangegeven dat de video “uitgegeven is door OpenAI”, en wordt vermeld dat deze door AI is gegenereerd. Alle Sora-video’s moeten deze inloggegevens bevatten waarmee u kunt bevestigen dat de video met Sora is gemaakt.

Deze tool is, zoals alle AI-detectoren, niet perfect. Er zijn veel manieren waarop AI-video’s detectie kunnen voorkomen. Als je niet-Sora-video’s hebt, bevatten deze mogelijk niet de noodzakelijke signalen in de metadata zodat de tool kan bepalen of ze al dan niet door AI zijn gemaakt. AI-video’s gemaakt met Midjourney worden bijvoorbeeld niet gemarkeerd, zoals ik tijdens mijn tests heb bevestigd. Zelfs als de video door Sora is gemaakt, maar vervolgens via een app van derden (zoals een app voor het verwijderen van watermerken) is uitgevoerd en opnieuw is gedownload, is de kans kleiner dat de tool deze als AI zal markeren.

Screenshot van een Sora-video die wordt afgespeeld via de tool van het Content Authenticity's Initiative

De verificatietool van het Content Authenticity Initiative signaleerde correct dat een video die ik met Sora maakte, door AI was gegenereerd, samen met de datum en tijd waarop ik deze had gemaakt.

Schermafbeelding door Katelyn Chedraoui/CNET

Zoek naar andere AI-labels en voeg uw eigen labels toe

Als je een van de sociale mediaplatforms van Meta gebruikt, zoals Instagram of Facebook, krijg je misschien wat hulp om te bepalen of iets AI is. Meta heeft interne systemen om AI-inhoud te helpen markeren en als zodanig te labelen. Deze systemen zijn niet perfect, maar je kunt duidelijk het label zien voor berichten die zijn gemarkeerd. TikTok En YouTube hebben een soortgelijk beleid voor het labelen van AI-inhoud.

De enige echt betrouwbare manier om te weten of iets door AI is gegenereerd, is als de maker het openbaar maakt. Veel sociale-mediaplatforms bieden nu instellingen waarmee gebruikers hun berichten kunnen labelen als door AI gegenereerd. Zelfs een simpele vermelding of vermelding in uw bijschrift kan een grote bijdrage leveren om iedereen te helpen begrijpen hoe iets tot stand is gekomen.

Terwijl je door Sora scrollt, weet je dat niets echt is. Zodra u echter de app verlaat en door AI gegenereerde video’s deelt, wordt het onze collectieve verantwoordelijkheid om bekend te maken hoe een video is gemaakt. Terwijl AI-modellen zoals Sora de grens tussen realiteit en AI blijven vervagen, is het aan ons allemaal om zo duidelijk mogelijk te maken wanneer iets echt is of AI.

Het allerbelangrijkste: blijf waakzaam

Er bestaat niet één waterdichte methode om in één oogopslag nauwkeurig te kunnen zien of een video echt is of AI. Het beste wat u kunt doen om te voorkomen dat u wordt gedupeerd, is door niet automatisch en onvoorwaardelijk alles te geloven wat u online ziet. Volg je instinct, en als iets onwerkelijk aanvoelt, is dat waarschijnlijk ook zo. In deze ongekende, met AI gevulde tijden is je beste verdediging het nauwkeuriger bekijken van de video’s die je bekijkt. Kijk niet snel en scroll weg zonder na te denken. Controleer op verminkte tekst, verdwijnende objecten en bewegingen die de natuurkunde tarten. En geef jezelf geen verwijten als je af en toe voor de gek wordt gehouden. Zelfs experts hebben het mis.

(Openbaarmaking: Ziff Davis, moederbedrijf van CNET, heeft in april een rechtszaak aangespannen tegen OpenAI, omdat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.)



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in