Iedereen die de laatste tijd op sociale media heeft gescrold, weet dat AI overal is. Maar we zijn er niet altijd goed in om het te zien als we het zien. Dat is een groot probleem en onze frustraties over AI worden steeds groter.
AI slop heeft elk platform geïnfecteerd, van zielloze beelden naar bizarre video’s En oppervlakkig geletterde tekst. De overgrote meerderheid van de Amerikaanse volwassenen die sociale media gebruiken (94%) denkt dat ze inhoud tegenkomen die is gemaakt of gewijzigd door AI, maar slechts 44% van de Amerikaanse volwassenen zegt er vertrouwen in te hebben dat ze echte foto’s en video’s kunnen onderscheiden van door AI gegenereerde foto’s, volgens een exclusief CNET-onderzoek.
Lees meer: AI Slop vernietigt het internet. Deze mensen vechten om het te redden.
Er zijn veel verschillende manieren waarop mensen terugvechten tegen AI-inhoud. Sommige oplossingen zijn gericht op betere labels voor door AI gemaakte inhoud, omdat het moeilijker dan ooit is om onze ogen te vertrouwen. Van de 2.443 respondenten die sociale media gebruiken, was de helft (51%) van mening dat we online betere AI-labels nodig hebben. Anderen (21%) zijn van mening dat er een totaal verbod moet komen op door AI gegenereerde inhoud op sociale media. Slechts een kleine groep (11%) van de respondenten zegt AI-inhoud nuttig, informatief of vermakelijk te vinden.
AI gaat nergens heen en verandert het internet en onze relatie ermee fundamenteel. Uit ons onderzoek blijkt dat we nog een lange weg te gaan hebben om daarmee rekening te houden.
Belangrijkste bevindingen
- De meeste Amerikaanse volwassenen die sociale media gebruiken (94%) denken dat ze AI-inhoud tegenkomen op sociale media, maar veel minder volwassenen (44%) kunnen met vertrouwen onderscheid maken tussen echte en valse afbeeldingen en video’s.
- Veel Amerikaanse volwassenen (72%) zeggen dat ze actie ondernemen om te bepalen of een afbeelding of video echt is, maar sommigen doen niets, vooral onder Boomers (36%) en Gen X-ers (29%).
- De helft van de Amerikaanse volwassenen (51%) is van mening dat door AI gegenereerde en bewerkte inhoud beter moet worden gelabeld.
- Eén op de vijf (21%) is van mening dat AI-inhoud op sociale media verboden moet worden, zonder uitzonderingen.
Bekijk dit: AI is niet te onderscheiden van de werkelijkheid. Hoe herkennen we nepvideo’s?
Amerikaanse volwassenen hebben niet het gevoel dat ze AI-media kunnen herkennen
Zien is niet langer geloven in het tijdperk van AI. Tools zoals OpenAI’s Sora videogenerator en die van Google Nano-banaan Met een afbeeldingsmodel kunnen hyperrealistische media worden gecreëerd, waarbij chatbots soepel stukjes tekst samenstellen die klinken alsof een echte persoon ze heeft geschreven.
Het is dus begrijpelijk dat een kwart (25%) van de Amerikaanse volwassenen zegt geen vertrouwen te hebben in hun vermogen om echte afbeeldingen en video’s te onderscheiden van door AI gegenereerde afbeeldingen. Oudere generaties, waaronder Boomers (40%) en Gen X (28%), hebben het minst vertrouwen. Als mensen niet veel kennis of blootstelling aan AI hebben, zullen ze zich waarschijnlijk onzeker voelen over hun vermogen om AI nauwkeurig te herkennen.
Mensen ondernemen actie om inhoud op verschillende manieren te verifiëren
Het vermogen van AI om het echte leven na te bootsen maakt het nog belangrijker om te verifiëren wat we online zien. Bijna drie op de vier Amerikaanse volwassenen (72%) zeggen dat ze enige vorm van actie ondernemen om te bepalen of een afbeelding of video echt is wanneer deze hun argwaan wekt, waarbij Generatie Z de meest waarschijnlijke (84%) van de leeftijdsgroepen is om dit te doen. De meest voor de hand liggende (en populaire) methode is het nauwkeurig inspecteren van de afbeeldingen en video’s op visuele aanwijzingen of artefacten. Meer dan de helft van de Amerikaanse volwassenen (60%) doet dit.
Maar AI-innovatie is een tweesnijdend zwaard; modellen zijn snel verbeterd, waardoor de eerdere fouten zijn geëlimineerd waarop we vertrouwden om door AI gegenereerde inhoud te ontdekken. Het em-streepje was nooit een betrouwbaar teken van AI, maar extra vingers in afbeeldingen en continuïteitsfouten in video’s waren ooit prominente alarmsignalen. Nieuwere AI-modellen maken deze voetgangersfouten meestal niet. We moeten dus allemaal een beetje harder werken om te bepalen wat echt is en wat nep is.
U kunt zoeken naar discrepanties en labels om AI-inhoud te identificeren.
Nu visuele indicatoren van AI verdwijnen, worden andere vormen van het verifiëren van inhoud steeds belangrijker. De volgende twee meest voorkomende methoden zijn het controleren op labels of openbaarmakingen (30%) en het zoeken naar de inhoud elders online (25%), zoals op nieuwssites of via omgekeerde afbeeldingen zoeken. Slechts 5% van de respondenten meldde dat ze een diep nep detectietool of website.
Maar 25% van de Amerikaanse volwassenen doet niets om te bepalen of de inhoud die ze online zien echt is. Dat gebrek aan actie is het hoogst onder Boomers (36%) en onder generatie X (29%). Dit is zorgelijk: we hebben al gezien dat AI een effectief hulpmiddel is misbruik En fraude. Het begrijpen van de oorsprong van een bericht of stukje inhoud is een belangrijke eerste stap bij het navigeren op internet, waar alles vervalst kan worden.
De helft van de Amerikaanse volwassenen wil betere AI-labels
Veel mensen werken aan oplossingen om de aanval van AI-slop het hoofd te bieden. Etikettering biedt grote kansen. Labeling is afhankelijk van gebruikers van sociale media om bekend te maken dat hun bericht met behulp van AI is geplaatst. Dit kan ook achter de schermen worden gedaan door sociale-mediaplatforms, maar het is enigszins moeilijk en leidt tot willekeurige resultaten. Dat is waarschijnlijk de reden waarom 51% van de Amerikaanse volwassenen gelooft dat we betere etikettering van AI-inhoud nodig hebben, inclusief deepfakes. De steun was het sterkst onder millennials en generatie Z, met respectievelijk 56% en 55%.
Zeer weinigen (11%) vonden AI-inhoud nuttig, informatief of vermakelijk.
Andere oplossingen zijn gericht op het beheersen van de stroom aan AI-inhoud die op sociale media wordt gedeeld. Alle grote platforms staan door AI gegenereerde inhoud toe, zolang deze hun algemene inhoudsrichtlijnen niet schendt, bijvoorbeeld niets illegaals of beledigends. Maar sommige platforms hebben tools geïntroduceerd om de hoeveelheid door AI gegenereerde inhoud die u in uw feeds ziet te beperken; Pinterest is uitgerold zijn filters vorig jaar, terwijl TikTok nog bestaat testen een aantal van zichzelf. Het idee is om iedereen de mogelijkheid te geven om door AI gegenereerde inhoud toe te staan of uit te sluiten van zijn feeds.
Maar 21% van de respondenten is van mening dat AI-inhoud helemaal verboden moet worden op sociale media, zonder uitzonderingen. Dat aantal is met 25% het hoogst onder Generatie Z. Op de vraag of zij vinden dat AI-inhoud moet worden toegestaan, maar strikt moet worden gereguleerd, antwoordde 36% ja. Deze lage percentages kunnen worden verklaard door het feit dat slechts 11% vindt dat AI-inhoud betekenisvolle waarde biedt (dat het vermakelijk, informatief of nuttig is) en dat 28% zegt dat het weinig tot geen waarde biedt.
Hoe u AI-inhoud kunt beperken en potentiële deepfakes kunt opsporen
Je beste verdediging tegen misleiding door AI is door met je ogen te kijken en op je gevoel te vertrouwen. Als iets te raar, te glanzend of te mooi is om waar te zijn, is dat waarschijnlijk ook het geval. Maar er zijn nog andere stappen die u kunt nemen, zoals het gebruik van een deepfake-detectietool. Er zijn veel opties; Ik raad aan om te beginnen met de Initiatief voor inhoudauthenticiteit’s tool, omdat het met verschillende bestandstypen werkt.
Je kunt ook het account bekijken dat het bericht heeft gedeeld voor waarschuwingen. Vaak wordt AI-slop gedeeld door producenten van massale slop, en dat kun je gemakkelijk in hun feeds zien. Ze zullen vol rare video’s staan die geen enkele continuïteit of gelijkenis lijken te hebben. Je kunt ook controleren of iemand die je kent hem volgt of dat dat account niemand anders volgt (dat is een waarschuwingssignaal). Spamberichten of oplichtingslinks zijn ook aanwijzingen dat het account niet legitiem is.
Als je de AI-inhoud die je in je sociale feeds ziet wilt beperken, bekijk dan onze handleidingen voor het uitschakelen of dempen Meta-AI op Instagram en Facebook en uitfilteren AI-berichten op Pinterest. Als u toch slop tegenkomt, kunt u het bericht markeren als iets waarin u niet geïnteresseerd bent, wat aan het algoritme moet aangeven dat u niet meer soortgelijke berichten wilt zien. Buiten sociale media kunt u dit uitschakelen Apple-intelligentiede AI-in Pixel En Melkweg telefoons en Gemini in Google Zoeken, Gmail en Documenten.
Zelfs als je dit allemaal doet en nog steeds af en toe voor de gek wordt gehouden door AI, hoef je je er niet al te slecht over te voelen. Er is maar een beperkte hoeveelheid die we als individu kunnen doen om de opkomende stroom van AI-slop te bestrijden. De kans is groot dat we het allemaal weleens mis hebben. Totdat we een universeel systeem hebben om AI effectief te detecteren, moeten we vertrouwen op de tools die we hebben en ons vermogen om elkaar te informeren over wat we nu kunnen doen.
Methodologie
CNET gaf YouGov Plc de opdracht om het onderzoek uit te voeren. Alle cijfers zijn, tenzij anders vermeld, afkomstig van YouGov Plc. De totale steekproefomvang bedroeg 2.530 volwassenen, waarvan 2.443 gebruik maken van sociale media. Het veldwerk werd uitgevoerd van 3 tot 5 februari 2026. De enquête werd online uitgevoerd. De cijfers zijn gewogen en zijn representatief voor alle Amerikaanse volwassenen (18 jaar en ouder).



