Home Nieuws AI-labels moesten gebruikers helpen vervalsingen te herkennen. Dit is de reden waarom...

AI-labels moesten gebruikers helpen vervalsingen te herkennen. Dit is de reden waarom ze falen

4
0
AI-labels moesten gebruikers helpen vervalsingen te herkennen. Dit is de reden waarom ze falen

Fake-accounts bestaan ​​al zo lang als sociale media. Dus toen onlangs werd onthuld dat een “hete meid” MAGA-persoonlijkheid genaamd Emily Hart was eigenlijk een 22-jarige mannelijke geneeskundestudent in India leek het misschien een beetje alledaags. Gewoon weer een meerval, weer een sokpop, weer een oplichter…het internet staat er vol mee.

Behalve dat deze foto’s had. En video’s. En duizenden volgers via meerdere netwerken, waarbij sommige berichten miljoenen views krijgen. Emily Hart was een echte influencer, niet zomaar een paar anoniem ei. De persoon die Emily heeft gemaakt bekende aan Wired dat terwijl het account actief was, hij elke maand duizenden dollars verdiende met het plaatsen van softcore-video’s bij een OnlyFans-concurrent en merchandising.

Emily’s maker is geen ontwikkelaar. Hij is gewoon een student met weinig geld, een goed gevoel voor de Amerikaanse politieke cultuur en een Google Gemini-account. Maar het merkwaardige geval van Emily Hart heeft aangetoond hoe AI heeft het voor bijna iedereen ongelooflijk eenvoudig gemaakt om te creëren overtuigende inhoud en bespeel het systeem van betrokkenheid op sociale media.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/media-copilot.png”, “imageMobileUrl”:https ://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/fe289316- bc4f-44ef-96bf-148b3d8578c1_1440x1440.png”,”wenkbrauw” “, “headline”:u003Cstrongu003EAbonneren naar The Media Copilotu003C/strongu003E”,”dek ‘Wilt u meer weten over hoe AI de media verandert? Mis nooit meer een update van Pete Pachal door u aan te melden voor The Media Copilot. Ga voor meer informatie naar u003Ca href=u0022https://mediacopilot.substack.com/u0022u003Emediacopilot.substack.comu003C/au003E”,”subhed>

,

“,”ctaText <Het roept ook de vraag op: let iemand daarbuiten op ons? Hoe weet je dat wat is echt en wat niet meer? En wie is verantwoordelijk voor het waarschuwen van gebruikers van sociale media dat de afbeeldingen die ze bekijken mogelijk afkomstig zijn van AI?

De nep-influencer-sjabloon

De belangrijkste implicatie van het verhaal gaat niet over één enkele AI-beïnvloeder. Het is dat dit het topje van de ijsberg is. AI heeft het creëren van online persona’s zoals Emily zo eenvoudig gemaakt dat misleiding op grote schaal mogelijk is geworden. Het Wired-verhaal verwijst naar andere nep-influencers die pro-Trump zijn Jessica Fostermaar je hoeft niet ver te zoeken op je Instagram Explore-pagina iets door AI gegenereerd zienen het wordt zelden bekendgemaakt. De zaak Emily Hart bewijst dat de sjabloon goedkoop, snel, lucratief en gemakkelijk te kopiëren is.

Alle de belangrijk sociaal netwerken beleid hebben voor AI-inhoud. Hoewel ze in detail variëren, is de essentie over het algemeen hetzelfde: synthetische beelden moeten openbaar worden gemaakt, vooral als deze als echt kunnen worden opgevat. En het onderwerp betreft gevoelige onderwerpen zoals politiek, gezondheid, financiën en actueel nieuws. Als het account geen AI-inhoud identificeert, kan het worden bevroren, gedemonetiseerd of verbannen.

Maar die straffen bestaan ​​vrijwel geheel op papier. In de praktijk is handhaving lastig, mede omdat Het detecteren van AI-inhoud wordt steeds moeilijker tegen de dag. De meeste geavanceerde beeldgeneratoren liggen lichtjaren voor op de modellen die de eerste creëerden Video ‘Will Smith eet spaghetti’en veelbetekenende artefacten zoals extra vingers en verdwijnende achtergrondpersonages zijn grotendeels tot het verleden verleden tijd. Zonder watermerken hebben zelfs geautomatiseerde systemen moeite om AI-afbeeldingen van echte te ontleden door er alleen maar naar te kijken.

Het ‘voedingslabel’ dat steeds verloren gaat

Een nieuwe standaard zou dit moeten oplossen. Inhoudsreferenties zijn een manier om bij te houden hoe een afbeelding gedurende de hele levenscyclus is gemaakt en gewijzigd. Die informatie kan worden bewaard in de metagegevens van de afbeelding, zodat de site die deze weergeeft gemakkelijker kan zien of deze door AI is gegenereerd en mogelijk een label of waarschuwing aan de gebruiker kan doorgeven. Het idee is dat, terwijl je door je sociale feed scrollt, elke afbeelding een klein pictogram naast zich heeft dat de geschiedenis ervan onthult als erop wordt geklikt.

Hoewel deze technologie al jaren bestaat en ogenschijnlijk de steun heeft van grote technologiebedrijven als Adobe, Google en Nvidia, hebben sociale platforms deze technologie nog niet consequent overgenomen. Het zien van het etiket is zeldzaam, en een Washington Post-rapport ontdekte dat sociale netwerken vaak de metagegevens verwijderen die inhoudsreferenties mogelijk maken. Dit is niet noodzakelijkerwijs schandelijk; het volgt een best practice uit de begindagen van het internet, toen elke byte kostbaar was. Maar het feit dat het nog steeds gebeurt, toont aan dat er weinig animo is om het systeem te laten werken.

Zou een label enig verschil maken? De maker van Emily zegt dat hij gelooft dat het veel van zijn volgers niet uitmaakte of de afbeeldingen die hij plaatste AI waren of niet. Dat kan voor sommigen waar zijn, maar gegevens suggereren dat labels de neiging van mensen om zich met AI-inhoud bezig te houden, kunnen veranderen. Een onderzoek uit 2024 ontdekte dat labels op door AI gemanipuleerde media het geloof in de beweringen verminderden. Uit het onderzoek bleek ook dat bewoordingen ertoe doen: ‘gemanipuleerd’ of ‘vals’ hadden meer impact dan alleen procesgebaseerde labels.

Met andere woorden: labels helpen, maar zwakke labels helpen zwak. Een verborgen ‘AI-info’-tag is niet hetzelfde als een duidelijke waarschuwing dat een afbeelding een persoon kan weergeven die niet bestaat.

Platformen zoals Facebook, Instagram, YouTube en TikTok inhoud al op schaal verwerken en wijzigen. Ze hebben twintig jaar besteed aan het ontwikkelen van de kunst van het detecteren van auteursrechtschendingen, naaktheid, spam en betrokkenheidssignalen. Het is moeilijk te geloven dat ze niet in staat zijn een duidelijker label op te bouwen voor door AI gegenereerde mensen.

Het zijn de prikkels, stommeling

Dus waarom doen ze dat niet? Het ongemakkelijke antwoord is dat de prikkels de andere kant op wijzen. Terwijl platforms slechte inhoud buiten willen houden, zijn ze meer gemotiveerd om mensen te laten posten, scrollen, delen en kopen. Door AI gegenereerd materiaal past precies in die machine omdat het goedkoop te maken is, gemakkelijk te personaliseren en zeer compatibel is met op betrokkenheid gebaseerde feeds.

Mark Zuckerberg is hierover ongewoon direct geweest, beschrijven Door AI gegenereerd materiaal als “een geheel nieuwe categorie inhoud” die hij belangrijk vindt voor Facebook, Instagram en Threads. Dat betekent niet dat Meta of enig ander platform bedrog wil (wat wederom een ​​subcategorie van AI-inhoud is). Maar het betekent wel dat de bedrijven een zakelijke reden hebben om meer synthetische inhoud te verwelkomen, en het te sterk of te zichtbaar maken van de labels zou de betrokkenheid die ze proberen aan te moedigen kunnen temperen.

De berekening kan echter veranderen. De Europese AI-wet omvat transparantieverplichtingen voor deepfakes en bepaalde door AI gegenereerde inhoud van algemeen belang, waarbij de bijbehorende regels dit jaar van kracht worden. Als platforms grote boetes gaan opleggen voor slechte etikettering, kunnen de zaken snel veranderen. Druk van adverteerders zou ook helpen, omdat het verschijnen naast misleidende inhoud slecht is voor de zaken. Ten slotte, en dat is van cruciaal belang, is er het gedrag van het publiek: als gebruikers het gevoel krijgen dat ze niet meer kunnen vertrouwen op wat ze op een netwerk zien, kunnen ze na verloop van tijd stoppen met hun interactie met dat netwerk.

De last is verschoven

Op dit moment ligt de verantwoordelijkheid voor het detecteren van AI-inhoud grotendeels bij de gebruiker, waarbij de sociale platforms geen prioriteit geven aan de technische vooruitgang die zou kunnen helpen, en toezichthouders nog maar pas beginnen te handelen. En je vraagt ​​je misschien af ​​wat het punt is: veel van Emily’s volgers wisten ongetwijfeld dat ze virtueel was, maar volgden, verloofden zich en verdienden misschien zelfs wat geld. Maar die keuze om wel of niet met een virtuele influencer in zee te gaan, wordt je ontnomen als je niet eens weet dat het virtueel is.

De technologie-industrie heeft jarenlang de herkomst gepresenteerd als een centraal antwoord op synthetische media. Adobe, Microsoft, Meta, OpenAI, Google en anderen hebben standaarden gesteund, zich bij coalities aangesloten, publieke toezeggingen gedaan en inhoudsreferenties in hun tools ingebed. Prima. Laat het dan aan mensen zien. Maak het zichtbaar vóór het delen, vóór het volgen, vóór het abonnement, vóór de aankoop van merchandise. Want als de enige manier om erachter te komen dat een influencer nep is, is door te wachten op een onderzoek door een tijdschrift, dan heeft het openbaarmakingssysteem al gefaald.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/media-copilot.png”, “imageMobileUrl”:https ://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/fe289316- bc4f-44ef-96bf-148b3d8578c1_1440x1440.png”,”wenkbrauw” “, “headline”:u003Cstrongu003EAbonneren naar The Media Copilotu003C/strongu003E”,”dek ‘Wilt u meer weten over hoe AI de media verandert? Mis nooit meer een update van Pete Pachal door u aan te melden voor The Media Copilot. Ga voor meer informatie naar u003Ca href=u0022https://mediacopilot.substack.com/u0022u003Emediacopilot.substack.comu003C/au003E”,”subhed>

,

“,”ctaText <

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in