Wilt u uw chatbot eerlijker tegen u maken? Probeer er tegen te liegen.
In een aflevering van “The Diary of a CEO”, dat op 18 december werd uitgezonden, vertelde onderzoekswetenschapper Yoshua Bengio aan de presentator van de podcast, Steven Bartlett, dat hij zich realiseerde dat AI-chatbots nutteloos waren in het geven van feedback op zijn onderzoeksideeën, omdat ze altijd positieve dingen zeiden.
“Ik wilde eerlijk advies, eerlijke feedback. Maar omdat het sycofantisch is, gaat het liegen”, zei hij.
Bengio zei dat hij van strategie veranderde en besloot tegen de chatbot te liegen door zijn idee als dat van een collega te presenteren, wat eerlijkere reacties van de technologie opleverde.
‘Als het weet dat ik het ben, wil het mij een plezier doen’, zei hij.
Bengio, hoogleraar computerwetenschappen en operationeel onderzoek aan de Université de Montréal, staat bekend als een van de ‘AI-peetvaders, naast onderzoekers Geoffrey Hinton en Yann LeCun. In juni aangekondigd de lancering van een non-profitorganisatie voor AI-veiligheidsonderzoek, LawZero, die volgens hem tot doel heeft gevaarlijk gedrag dat verband houdt met geavanceerde AI-modellen, zoals liegen en bedriegen, te verminderen.
“Deze syconphancy is een echt voorbeeld van een verkeerde afstemming. We willen eigenlijk niet dat deze AI’s zo zijn”, zei hij in ‘The Diary of a CEO’. Hij zei ook dat het ontvangen van positieve feedback van AI ervoor zou kunnen zorgen dat gebruikers emotioneel gehecht raken aan de technologie, waardoor er nog meer problemen zouden ontstaan.
Ander Experts uit de technologie-industrie luiden ook de noodklok omdat AI een te grote rol speelt.ja mens.”
In september 2025 meldde Katie Notopoulos van Business Insider dat onderzoekers aan StanfordCarnegie Mellon en de Universiteit van Oxford plaatsten bekentenissen van een Reddit-pagina in chatbots om te zien hoe de technologie het gedrag zou beoordelen waartoe de posters hadden toegegeven. Dat hebben ze gevonden 42% van de tijd gaf AI het ‘verkeerde’ antwoord en zei dat de persoon achter de post zich niet slecht had gedragen, ook al waren de mensen die de berichten beoordeelden het daar niet mee eens, schreef Notopoulos.
AI-bedrijven zijn er openhartig over geweest om de sycofantie in hun modellen te verminderen. Eerder dit jaar, OpenAI verwijderd een update van ChatGPT die ervoor zorgde dat de bot “overdreven ondersteunende maar onoprechte” reacties gaf.


