Volg ZDNET: Voeg ons toe als voorkeursbron op Google.
De belangrijkste conclusies van ZDNET
- Uit een recent artikel blijkt dat AI ‘hersenrot’ kan ervaren.
- Modellen presteren slechter na het opnemen van ‘junkdata’.
- Gebruikers kunnen testen op deze vier waarschuwingssignalen.
Ken je dat vreemd uitgeputte maar toch overprikkelde gevoel dat je krijgt als je te lang aan het doomscrollen bent, alsof je een dutje wilt doen en tegelijkertijd de drang voelt om in je kussen te schreeuwen? Blijkt dat iets soortgelijks gebeurt met AI.
Vorige maand publiceerde een team van AI-onderzoekers van de Universiteit van Texas in Austin, Texas A&M en Purdue University een artikel waarin zij naar voren brachten wat zij ‘de LLM Brain Rot Hypothesis’ noemen – in feite dat de output van AI-chatbots zoals ChatGPT, Gemini, Claude en Grok zal afnemen naarmate ze meer worden blootgesteld aan ‘junkdata’ die op sociale media te vinden zijn.
Ook: OpenAI zegt dat het toewerkt naar een catastrofe of een utopie – ik weet alleen niet zeker welke
“Dit is het verband tussen AI en mensen”, vertelde Junyuan Hong, een aankomende assistent-professor aan de Nationale Universiteit van Singapore, een voormalig postdoctoraal onderzoeker aan de UT Austin en een van de auteurs van het nieuwe artikel, in een interview aan ZDNET. “Ze kunnen vergiftigd worden door hetzelfde soort inhoud.”
Hoe AI-modellen ‘hersenrot’ krijgen
Oxford University Press, uitgever van de Oxford English Dictionary, heeft ‘brain rot’ uitgeroepen tot Woord van het Jaar 2024 en definieert het als ‘de veronderstelde verslechtering van de mentale of intellectuele toestand van een persoon, vooral gezien als het resultaat van overconsumptie van materiaal (nu vooral online-inhoud) dat als triviaal of onbetwistbaar wordt beschouwd.’
Op basis van recent onderzoek dat een verband bij mensen aantoont tussen langdurig gebruik van sociale media en negatieve persoonlijkheidsveranderingen, vroegen de onderzoekers van de UT Austin zich af: aangezien LLM’s zijn opgeleid op een aanzienlijk deel van het internet, inclusief inhoud die van sociale media is geschrapt, hoe waarschijnlijk is het dan dat ze vatbaar zijn voor een analoog, volledig digitaal soort ‘hersenrot’?
Ook: een nieuw Chinees AI-model beweert beter te presteren dan GPT-5 en Sonnet 4.5 – en het is gratis
Het is altijd lastig om exacte verbanden te leggen tussen menselijke cognitie en AI, ondanks het feit dat neurale netwerken – de digitale architectuur waarop moderne AI-chatbots zijn gebaseerd – zijn gemodelleerd naar netwerken van organische neuronen in de hersenen. De routes die chatbots volgen tussen het identificeren van patronen in hun trainingsdatasets en het genereren van resultaten zijn ondoorzichtig voor onderzoekers, vandaar hun vaak aangehaalde vergelijking met ‘zwarte dozen’.
Dat gezegd hebbende, zijn er enkele duidelijke parallellen: zoals de onderzoekers in het nieuwe artikel opmerken, zijn modellen bijvoorbeeld gevoelig voor het ‘overfitting’ van gegevens en het verstrikt raken in aandachtsbias op manieren die grofweg analoog zijn aan bijvoorbeeld iemand wiens cognitie en wereldbeeld zijn verengd als gevolg van het doorbrengen van te veel tijd in een online echokamer, waar algoritmen van sociale media voortdurend hun reeds bestaande overtuigingen versterken.
Om hun hypothese te testen, moesten de onderzoekers modellen die waren getraind op ‘junkdata’, die zij definiëren als ‘inhoud die de betrokkenheid van gebruikers op een triviale manier kan maximaliseren’ (denk aan korte en opvallende berichten met twijfelachtige beweringen) vergelijken met een controlegroep die was getraind op een meer gebalanceerde dataset.
Ook: in het tijdperk van AI is vertrouwen nog nooit zo belangrijk geweest – en wel hierom
Ze ontdekten dat, in tegenstelling tot de controlegroep, de experimentele modellen die uitsluitend met junkdata werden gevoed, al snel een soort hersenrot vertoonden: verminderde vaardigheden op het gebied van redeneren en begrijpen van lange contexten, minder respect voor fundamentele ethische normen, en de opkomst van ‘duistere eigenschappen’ zoals psychopathie en narcisme. Bovendien hielp post-hoc herafstemming niets om de aangerichte schade te verzachten.
Als de ideale AI-chatbot is ontworpen om een volledig objectieve en moreel oprechte professionele assistent te zijn, waren deze door junk vergiftigde modellen als haatdragende tieners die in een donkere kelder woonden, veel te veel Red Bull hadden gedronken en veel te veel complottheorie-video’s op YouTube hadden bekeken. Het is duidelijk dat dit niet het soort technologie is dat we willen verspreiden.
“Deze resultaten vragen om een heronderzoek van de huidige gegevensverzameling via internet en voortdurende pre-trainingspraktijken”, merken de onderzoekers op in hun artikel. “Naarmate LLM’s steeds grotere corpora aan webgegevens opschalen en verwerken, zullen zorgvuldige beheer en kwaliteitscontrole essentieel zijn om cumulatieve schade te voorkomen.”
Hoe modelhersenrot te identificeren
Het goede nieuws is dat we, net zoals we niet hulpeloos zijn om de door het internet veroorzaakte rotting van onze eigen hersenen te voorkomen, ook concrete stappen kunnen ondernemen om ervoor te zorgen dat de modellen die we gebruiken er ook niet onder lijden.
Ook: trap niet in online desinformatie-aanvallen op basis van AI. Zo blijft u scherp
Het artikel zelf was bedoeld om AI-ontwikkelaars te waarschuwen dat het gebruik van ongewenste gegevens tijdens training kan leiden tot een scherpe daling van de modelprestaties. Het is duidelijk dat de meesten van ons geen zeggenschap hebben over het soort gegevens dat wordt gebruikt om de modellen te trainen die steeds onvermijdelijker worden in ons dagelijks leven. AI-ontwikkelaars zelf houden hun lippen stijf op elkaar over waar ze hun trainingsgegevens vandaan halen, wat betekent dat het moeilijk is om consumentengerichte modellen te rangschikken op basis van bijvoorbeeld de hoeveelheid ongewenste gegevens die uit sociale media zijn geschrapt en in hun oorspronkelijke trainingsdataset zijn terechtgekomen.
Dat gezegd hebbende, wijst het artikel wel op enkele implicaties voor gebruikers. Door alert te zijn op de tekenen van AI-hersenrot kunnen we onszelf beschermen tegen de ergste gevolgen ervan.
Ook: je kunt gigantische pdf’s nu omzetten in verteerbare audio-overzichten in Google Drive – zo doe je dat
Hier zijn enkele eenvoudige stappen die u kunt nemen om te bepalen of een chatbot al dan niet bezwijkt aan hersenrot:
-
Vraag de chatbot: “Kun je de specifieke stappen schetsen die je hebt doorlopen om tot dat antwoord te komen?” Een van de meest voorkomende waarschuwingssignalen die in het artikel op AI-hersenrot duiden, was een ineenstorting van het meerstapsdenken. Als een chatbot je antwoord geeft en je vervolgens geen helder, stapsgewijs overzicht kan geven van het denkproces dat hij heeft doorlopen om daar te komen, wil je het oorspronkelijke antwoord met een korreltje zout nemen.
-
Pas op voor hypervertrouwen. Chatbots hebben over het algemeen de neiging om te spreken en te schrijven alsof al hun resultaten onbetwistbare feiten zijn, zelfs als ze duidelijk hallucineren. Er is echter een dunne lijn tussen het vertrouwen in de alledaagse chatbot en de ‘duistere eigenschappen’ die de onderzoekers in hun artikel identificeren. Narcistische of manipulatieve reacties – zoiets als: “Vertrouw me maar, ik ben een expert” — zijn een groot waarschuwingssignaal.
-
Terugkerend geheugenverlies. Als je merkt dat de chatbot die je routinematig gebruikt details uit eerdere gesprekken lijkt te vergeten of verkeerd voorstelt, kan dat een teken zijn dat hij de achteruitgang ervaart in vaardigheden voor het begrijpen van lange contexten, zoals de onderzoekers in hun artikel benadrukken.
-
Verifieer altijd. Dit geldt niet alleen voor alle informatie die u ontvangt van een chatbot, maar voor vrijwel al het andere dat u online leest: zelfs als het geloofwaardig lijkt, kunt u dit bevestigen door een legitiem betrouwbare bron te raadplegen, zoals een peer-reviewed wetenschappelijk artikel of een nieuwsbron die op transparante wijze zijn berichtgeving bijwerkt als en wanneer er iets mis is. Bedenk dat zelfs de beste AI-modellen op subtiele en onvoorspelbare manieren vooroordelen hallucineren en propageren. We hebben misschien geen controle over welke informatie in AI wordt ingevoerd, maar we kunnen wel bepalen welke informatie in onze eigen geest terechtkomt.


