Home Nieuws Desinformatie neemt toe. We moeten beter worden in het bestrijden ervan

Desinformatie neemt toe. We moeten beter worden in het bestrijden ervan

3
0
Desinformatie neemt toe. We moeten beter worden in het bestrijden ervan

De meeste dagen belandt er een e-mail in mijn inbox met de belofte om mijn groei te vergroten: mijn nieuwsbriefabonnees, het bereik van mijn podcasts, het aantal leads van klanten, enz. Ik ben eraan gewend geraakt dat willekeurige mensen mij op hun diensten pitchen, en sommige berichten spelen vakkundig in op mijn onzekerheden als bedrijfseigenaar (“je laat zoveel op tafel liggen”, et al.). Ik beantwoord ze nooit, maar ik vraag me soms af welke wel legitiem zijn.

Een paar maanden geleden opende ik de Assistent-zijbalk in mijn AI-aangedreven browser toen ik door een van deze e-mails bladerde en vroeg of deze er verdacht uitzag (ik denk dat “this look sus?” de daadwerkelijke prompt was). Het antwoordde dat ja, in de boodschap, waarin werd gepitcht om financiering te vinden voor The Media Copilot, belangrijke informatie ontbrak die een gevestigde organisatie zou bevatten, en dat deze was verzonden door iemand met een e-mailadres van een niet-bestaand domein en geen LinkedIn-profiel.

Terwijl ik las, dacht ik aan mijn ervaring Tijd over hoe een team bij MIT onderhoudt een online portaal dat beschrijft hoe schadelijke AI-incidenten zijn de afgelopen jaren gestegen. De TL;DR is dat de gebruik van AI om schade te veroorzakenopzettelijk of per ongeluk, is de afgelopen jaren aanzienlijk toegenomen. De incidenten omvatten alles, van eenvoudige fouten tot opzettelijke overtredingenen de brede categorieën die het meest zijn toegenomen, hebben te maken met desinformatie en kwaadwillende actoren. Dat is helaas logisch: degenen die mensen willen misleiden, verkeerd informeren of regelrecht oplichten, hebben nooit betere hulpmiddelen gehad om dit te doen.

{“blockType “creator-network-promo”, data”:{“mediaUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/mediacopilot-logo-ss.png”, “headline” “Media CoPilot”, “description” “Wilt u meer weten over hoe AI de media verandert? Mis nooit meer een update van Pete Pachal door u aan te melden voor Media CoPilot. Ga voor meer informatie naar mediacopilot.substack.com”, “substackDomain”:https://mediacopilot.substack.com/”, “colorTheme”:zalm”, “redirectUrl””}}

Een van de rollen van de nieuwsmedia is het controleren van desinformatie en de meeste spraakmakende incidenten die daarmee verband houden AI– zoals wanneer die Biden robocalls de ronde deden – worden vrij snel ontkracht. Maar incidenten die dat niveau bereiken, zijn de uitzondering en niet de regel. Deepfakes zullen misschien nooit genoeg mensen voor de gek houden een verkiezing uitstellenmaar de cijfers suggereren dat het aantal minder prominente incidenten is zich snel op. Tegelijkertijd is het aantal banen in de journalistiek hetzelfde krimpenen de verslaggevers die overblijven hebben slechts een beperkte bandbreedte.

Scepsis is geen strategie

Naarmate de desinformatie van AI toeneemt, ontstaat er een wereld waarin iedereen steeds sceptischer wordt over wat ze lezen, zien en horen. Vorig jaar werd een papier van het National Bureau of Economic Research ontdekte dat blootstelling aan door AI aangestuurde desinformatie leidde tot minder vertrouwen in de media in het algemeen. Maar scepticisme alleen is dat niet productief. Waar journalisten het meeste kunnen helpen, is niet het proberen elke deepfake of oplichting te ontmaskeren (duidelijk een verloren strijd), maar door hun publiek voor te lichten over hoe ze dat scepticisme op de juiste manier kunnen kanaliseren.

Net als bij mijn e-mailassistent zijn de verificatietools – waarmee ik heel snel bronnen kan controleren, beweringen kan analyseren en ondersteunend bewijsmateriaal kan ontdekken – nu voor iedereen gemakkelijk beschikbaar. Dat wil niet zeggen dat iedereen onmiddellijk moet vertrouwen op wat een AI-chatbot over een bepaald verhaal zegt. Maar AI is een instrument, en als het als journalistieke lens wordt gebruikt, kan het een krachtig instrument zijn.

De sleutel is het behandelen van de AI als een assistent van scepticisme, en niet als een autoriteit. Om terug te keren naar het e-mailvoorbeeld: mijn heen-en-weer-gesprek met de browser vond in enkele seconden wat mij minuten zou hebben gekost, onderwerpen opzoeken, inconsistenties markeren en nieuwe vragen voorstellen om op te volgen. Dit komt allemaal overeen met de principes van goede journalistiek, en door daar wat praktische richtlijnen over te geven, zullen lezers niet alleen in staat worden gesteld slechte informatie op te merken, maar mogelijk ook niet onmiddellijk de goede informatie die er is, terzijde schuiven.

Hoe de cynische valkuil te vermijden

Hoe ziet een goede “AI-verificatielaag” eruit? Het begint met het inzicht dat scepticisme een startpunt is, en niet het doel. Als je het effectief gebruikt, betekent dit dat je AI moet inzetten om de informatie te ondervragen en te voorkomen dat je eigen vermoedens op een onproductieve manier worden versterkt. Hier zijn drie gewoonten, gebaseerd op journalistieke principes, die op elk AI-instrument kunnen worden toegepast.

  1. Stel twee keer dezelfde vraag: Veel incidenten waarbij AI schade heeft veroorzaakt, begonnen onschuldig genoeg, maar uiteindelijk werd de gebruiker in een soort konijnenhol geleid, soms tragisch eindigend. Een nuttige gewoonte die dit in sommige gevallen zou kunnen vermijden, is dezelfde vraag een tweede keer te stellen, alleen opnieuw geformuleerd of met een andere formulering. Controleer hoe de antwoorden zich verhouden en volg eventuele significante inconsistenties op.
  1. Krachtspecificiteit: Alle goede interviewers passen deze doelgericht toe. Wanneer iemand een brede bewering of verklaring doet, vraag dan AI om deze specifieker te maken. Wat ondersteunt die bewering? Wie waren erbij betrokken, wat waren de feiten van het onderliggende bewijsmateriaal, wanneer gebeurde het? Alle vage antwoorden moeten als een waarschuwingssignaal worden behandeld.
  1. Bronnen voor steekproeven: Als een claim gebaseerd is op een link op internet, duurt het niet lang om deze te verifiëren. Als je iets niet binnen een minuut of twee kunt verifiëren, moet je er twee keer over nadenken, maar houd er rekening mee dat er redenen kunnen zijn dat sommige echte beweringen moeilijk te verifiëren zijn (anonieme bronnen bijvoorbeeld).

De wereld wordt steeds vager. Tussen AI-hallucinaties, opzettelijke desinformatie en de wijdverbreide memecultuur is het begrijpelijk dat iedereen veel sceptischer is geworden over wat ze zien. Zonder principes en gewoonten die je naar goede informatie leiden, zal dat scepticisme echter maar al te vaak afglijden naar cynisme. Journalisten zijn misschien niet in staat om alles te verifiëren wat wij willen dat ze doen, maar hun principes kunnen een nieuwe generatie nieuwsconsumenten helpen het goede van het slechte te onderscheiden – op grote schaal.

{“blockType “creator-network-promo”, data”:{“mediaUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/mediacopilot-logo-ss.png”, “headline” “Media CoPilot”, “description” “Wilt u meer weten over hoe AI de media verandert? Mis nooit meer een update van Pete Pachal door u aan te melden voor Media CoPilot. Ga voor meer informatie naar mediacopilot.substack.com”, “substackDomain”:https://mediacopilot.substack.com/”, “colorTheme”:zalm”, “redirectUrl””}}

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in