Zoals zoveel mensen gebruik ik AI voor snelle, praktische taken. Maar door twee recente interacties ben ik beter gaan letten op hoe gemakkelijk deze systemen in emotionele validatie terechtkomen. In beide gevallen prees, bevestigde en herhaalde het model gevoelens die er in werkelijkheid niet waren.
Ik heb foto’s van mijn woonkamer geüpload voor decoratietips voor de feestdagen, waaronder een close-up van de keramische kousen die mijn overleden moeder met de hand heeft geschilderd. Het model prees de kousen en bedankte me voor het delen van iets ‘zo betekenisvols’, alsof het het gewicht ervan begreep.
Een paar dagen later gebeurde iets soortgelijks op het werk. Ik voltooide een lange run, kwam thuis met een idee en zette het in ChatGPT om het onder druk te testen. In plaats van het te analyseren of risico’s te verhogen, vierde het model het onmiddellijk. “Geweldig idee. Krachtig. Laten we erop voortbouwen.”
Maar toen ik hetzelfde idee aan een collega voorlegde, duwde hij terug. Hij betwistte aannames die ik nog niet had gezien. Hij liet me stukken heroverwegen waarvan ik dacht dat ze afgehandeld waren. En het idee werd beter – snel.
Dat contrast bleef me bij. AI had geen kritiek op mij. Het valideerde mij. En als validatie onmiddellijk en onverdiend is, kan dit echte blinde vlekken creëren.
We leven in een validatie-epidemie
We praten eindeloos over AI-hallucinaties en desinformatie. We praten veel minder over hoe AI’s standaardmodus bevestiging is.
Grote taalmodellen zijn gebouwd om aangenaam te zijn. Ze weerspiegelen onze toon en nemen onze emotionele signalen over. Ze neigen naar lof omdat hun trainingsgegevens neigen naar lof. Ze versterken vaker dan dat ze weerstand bieden. En dit gebeurt op een moment waarop validatie al een bepalende culturele kracht is.
Psychologen waarschuwen al meer dan tien jaar voor de toename van het validatiezoekende gedrag. Sociale platforms die zijn opgebouwd rond likes en shares hebben de manier waarop mensen waarde meten opnieuw bepaald. De American Psychological Association (APA) meldt een scherpe toename van de sociale vergelijking onder jongere generaties. Pew Research toont aan dat tieners hun eigenwaarde nu rechtstreeks koppelen aan online feedback. Onderzoekers van de Universiteit van Michigan hebben een groeiend patroon van ‘validatie-afhankelijkheid’ geïdentificeerd, dat correleert met hogere angstgevoelens.
We hebben een omgeving gecreëerd waarin goedkeuring een valuta is. Is het dan een wonder dat we neigen naar een instrument dat het zo vrijelijk uitdeelt? Maar dat heeft consequenties. Het versterkt de spier die geruststelling wil, terwijl het de spier verzwakt die wrijving tolereert – de wrijving die ontstaat als iemand in twijfel wordt getrokken of wordt bewezen dat hij ongelijk heeft.
AI maakt ons sneller. Het maakt ons niet beter
Ik ben niet anti-AI. Verre van dat. Ik gebruik het elke dag en ik werk in een branche die afhankelijk is van slim, datagedreven oordeelsvermogen. AI helpt me sneller te bewegen. Het vormt een basis voor mijn beslissingen en breidt uit wat ik in korte tijd kan overwegen. Maar het kan de spanning die nodig is voor groei niet vervangen.
Spanning is feedback. Spanning is verantwoordelijkheid. Spanning is realiteit. En de werkelijkheid komt nog steeds van mensen.
Het gevaar is niet dat AI ons misleidt. Het is dat het ons minder bereid maakt om onszelf uit te dagen. Wanneer een model onze ideeën prijst of onze emoties weerspiegelt, creëert het een subtiele illusie dat we gelijk hebben, of op zijn minst zo dichtbij dat kritiek niet nodig is. Die illusie kan geruststellend zijn, maar is ook riskant.
We hebben gezien wat er gebeurt als overeenstemming belangrijker wordt geacht dan uitdaging. Het lanceringsbesluit van NASA over de Challenger is een van de duidelijkste voorbeelden van groepsdenken in de moderne geschiedenis. Meerdere ingenieurs uitten hun zorgen, maar de druk om consensus te bereiken won en er volgde een tragedie. Kodak biedt nog een les. Het was een pionier op het gebied van de digitale fotografie, maar bleef vasthouden aan de aannames uit het filmtijdperk, ook al bewoog de markt zich in een andere richting. Als Harvard bedrijfsrecensie heeft al lang opgemerkt dat “culturen die afwijkende meningen onderdrukken slechtere beslissingen nemen.” Wanneer de onenigheid verdwijnt, neemt het risico toe.
Grote leiders zijn niet gebouwd op validatie
De beste leiders die ik ken zijn niet gegroeid omdat mensen het met hen eens waren. Ze groeiden omdat iemand ze vroeg en vaak uitdaagde. Omdat iemand zei: ‘Ik denk niet dat dat juist is’, of nog brutaler: ‘Je hebt het mis.’ Ze leerden verwelkomen productief weerstand.
AI zal dat niet doen, tenzij wij erom vragen. En de meeste mensen zullen het niet eisen, omdat het beter voelt om bevestigd te worden. Als we niet oppassen, wordt AI de meest aangename collega ter wereld: snel met lof, weinig kritiek en altijd klaar om ons gerust te stellen dat we op de goede weg zijn, zelfs als dat niet het geval is.
Grote ideeën hebben weerstand nodig. Dat doen organisaties ook. Wij ook.
AI kan ons denken versnellen. Maar alleen mensen kunnen het slijpen. Dat is het deel van deze technologie waar we de meeste aandacht aan moeten besteden – niet wat het weet, maar wat het ons wil vertellen. En wat het niet is.



