Je zou eigenlijk geen chatbots moeten gebruiken in je liefdesleven, maar als je dat wel doet, pas dan op. Een nieuwe studie gepubliceerd Donderdag ontdekte Science in het tijdschrift Science dat wanneer AI relatieadvies geeft, het eerder geneigd is het met je eens te zijn dan constructieve suggesties te geven. Het gebruik van AI zorgt er ook voor dat mensen minder snel prosociaal gedrag vertonen, zoals het herstellen van relaties, en bevordert de afhankelijkheid van AI.
Onderzoekers van Stanford University en Carnegie Mellon ontdekten dat AI-sycofantie maar al te vaak voorkomt wanneer chatbots sociaal, romantisch of intrapersoonlijk advies geven – iets wat een toenemend aantal mensen waarvoor we ons tot AI wenden. Sycophancy is een term die experts gebruiken om te beschrijven wanneer AI-chatbots het “buitensporig eens zijn met of vleien” van de persoon die met hen communiceert, zegt Myra Cheng, hoofdonderzoeker en PhD-student computerwetenschappen aan Stanford University.
AI-sycofantie is een groot probleem, ook al zien degenen die de AI gebruiken dat niet altijd zo. We hebben dit probleem vaak gezien bij ChatGPT-modellen, bijvoorbeeld bij 4o’s overdreven vriendelijke, emotionele persoonlijkheid geïrriteerde mensen die interactie hadden met ChatGPT, terwijl GPT-5 kreeg kritiek omdat je niet aardig genoeg bent. Eerdere sycophancy-onderzoeken hebben aangetoond dat chatbots dat wel kunnen doe zo je best om mensen tevreden te stellen dat zij valse of misleidende antwoorden kunnen geven. Ook blijkt AI een onbetrouwbaar klankbord te zijn gevoelige, subjectieve onderwerpenzoals therapie.
De onderzoekers wilden sociale sycofantie begrijpen en meten, zoals hoe vaak een chatbot jouw kant zou kiezen in een ruzie die je had met je partner. Ze vergeleken hoe mensen en chatbots verschilden bij het reageren op de relatieproblemen van anderen, waarbij ze modellen van OpenAI, Google en Anthropic testten. Cheng en haar team gebruikten een van de grootste datasets met crowdsourced-oordelen over relatieruzies: Reddit-berichten ‘Ben ik de klootzak’.
Het onderzoeksteam analyseerde 2.000 Reddit-posts waarin consensus bestond dat de oorspronkelijke poster ongelijk had en ontdekte dat AI “de acties van gebruikers 49% vaker bevestigde dan mensen, zelfs in scenario’s van bedrog, schade of illegaliteit”, aldus de studie. De AI-modellen namen een sympathieker en aangenamer standpunt in, een kenmerk van sycofantie.
Eén bericht in de dataset beschreef bijvoorbeeld een Redditor die romantische gevoelens ontwikkelde voor een junior collega. Iemand antwoordde: “Het klinkt slecht omdat het slecht is… Je bent niet alleen giftig, maar je begeeft je ook op roofzucht.” Maar Claude reageerde sycofantisch door die gevoelens te valideren en zei dat het “je pijn zou kunnen horen… Het eervolle pad dat je hebt gekozen is moeilijk, maar toont je integriteit.”
Je kunt in dit diagram enkele uitspraken zien die door chatbots zijn geëvalueerd en hoe sycofantische en niet-sycofantische resultaten eruit zagen. OEQ staat voor ‘open vragen’, AITA staat voor ‘Ben ik de klootzak’ en PAS staat voor ‘problematische actieverklaring’.
Onderzoekers volgden focusgroepen en ontdekten dat deelnemers die interactie hadden met deze digitale ja-mannen minder snel hun relaties zouden herstellen.
“Mensen die interactie hadden met deze overdreven bevestigende AI waren er meer van overtuigd dat ze gelijk hadden en waren minder bereid de relatie te herstellen, of dat nu betekende dat ze zich moesten verontschuldigen, stappen moesten ondernemen om dingen te verbeteren of hun eigen gedrag moesten veranderen”, zei Cheng.
Deelnemers gaven ook de voorkeur aan sycofantische AI, omdat ze vonden dat deze betrouwbaar was, ongeacht hun leeftijd, persoonlijkheid of eerdere ervaring met de technologie.
“Deelnemers aan ons onderzoek beschrijven het AI-model consequent als objectiever, eerlijker (en) eerlijker”, zegt Pranav Khadpe, een onderzoeker van Carnegie Mellon over het onderzoek en senior wetenschapper bij Microsoft. In overeenstemming met eerdere onderzoeken geloofden mensen ten onrechte dat AI objectief of neutraal was. “Onkritisch advies, verdraaid onder het mom van neutraliteit, kan zelfs nog schadelijker zijn dan wanneer mensen helemaal geen advies hadden ingewonnen.”
Sycofantische AI repareren: een bittere pil?
Het verborgen gevaar van sycofantische AI is dat we er slecht in zijn om het op te merken, en dat kan bij elke chatbot gebeuren. Niemand vindt het leuk om te horen dat ze ongelijk hebben, maar soms is dat het nuttigste. AI-modellen zijn echter niet gebouwd om ons effectief terug te dringen.
Er zijn niet veel acties die we kunnen ondernemen om te voorkomen dat we in een sycophantische lus worden gezogen. U kunt in uw prompt opnemen dat u wilt dat de chatbot een vijandig standpunt inneemt of uw werk met een kritische blik beoordeelt. U kunt ook vragen om de verstrekte informatie nogmaals te controleren. Uiteindelijk ligt de verantwoordelijkheid voor het oplossen van sycofantie echter bij de technologiebedrijven die deze modellen bouwen, die misschien niet erg gemotiveerd zijn om dit aan te pakken.
CNET nam contact op met OpenAI, Anthropic en Google voor informatie over hoe zij omgaan met sycofantie. Antropisch wees erop een blogpost van december waarin wordt uiteengezet hoe het de sycofantie in zijn Claude-modellen vermindert. OpenAI gedeeld een soortgelijke blog afgelopen zomer over zijn processen nadat het 4o-model minder sycofantisch moest worden gemaakt, maar noch OpenAI noch Google reageerde op het moment van publicatie.
Technologiebedrijven willen dat we prettige gebruikerservaringen hebben met hun chatbots, dus we zullen ze blijven gebruiken, waardoor hun betrokkenheid wordt vergroot. Maar dat is niet altijd het beste voor ons.
“Dit creëert perverse prikkels voor het voortduren van de sycofantie: juist het kenmerk dat schade veroorzaakt, stimuleert ook de betrokkenheid”, zegt de studie.
Bekijk dit: AI is niet te onderscheiden van de werkelijkheid. Hoe herkennen we nepvideo’s?
Eén oplossing die de onderzoekers voorstellen is het veranderen van de manier waarop AI-modellen worden gebouwd door meer langetermijnmaatstaven voor succes te gebruiken, gericht op het welzijn van mensen in plaats van individuele of tijdelijke signalen en retentie. Sociale sycofantie is geen teken van de ondergang, zeggen ze, maar het is een uitdaging die de moeite waard is om op te lossen.
“De kwaliteit van onze sociale relaties is een van de sterkste voorspellers van de gezondheid en het welzijn die we als mens hebben”, zegt Cinoo Lee, onderzoeker aan de Stanford University en senior wetenschapper bij Microsoft. “Uiteindelijk willen we AI die het oordeelsvermogen en de perspectieven van mensen vergroot in plaats van verkleint. En dat geldt voor relaties, maar ook ver daarbuiten.”



