In de race om AI-modellen steeds indrukwekkender te laten lijken, hebben technologiebedrijven een theatrale benadering van taal aangenomen. Ze blijven over AI praten alsof het een persoon is. Niet alleen over het ‘denken’ of ‘plannen’ van de AI – deze woorden zijn al beladen – maar nu bespreken ze een De ‘ziel’ van het AI-model en hoe modellen ‘bekennen’, ‘willen’, ‘plannen maken’ of ‘zich onzeker voelen’.
Dit is geen onschuldige marketingbloei. Het antropomorfiseren van AI is misleidend, onverantwoordelijk en uiteindelijk schadelijk voor het begrip van het publiek van een technologie die al worstelt met transparantie, op een moment waarop duidelijkheid er het meest toe doet.
Onderzoek van grote AI-bedrijven, bedoeld om licht te werpen op het gedrag van generatieve AI, wordt vaak op een manier ingekaderd die eerder verduistert dan verheldert. Neem bijvoorbeeld een recent bericht van OpenAI waarin zijn werk wordt beschreven om zijn modellen hun fouten of sluiproutes te laten ‘bekennen’. Het is een waardevol experiment dat onderzoekt hoe een chatbot zelf bepaalde ‘wangedragingen’ rapporteert, zoals hallucinaties en plannen. Maar OpenAI’s beschrijving van het proces als een ‘bekentenis’ impliceert dat er een psychologisch element schuilgaat achter de resultaten van een groot taalmodel.
Misschien komt dat voort uit de erkenning van hoe uitdagend het is voor een LLM om echte transparantie te bereiken. We hebben bijvoorbeeld gezien dat AI-modellen hun werk niet op betrouwbare wijze kunnen demonstreren in activiteiten als Sudoku-puzzels oplossen.
Er zit een kloof tussen Wat de AI kan genereren en Hoe het genereert het, en dat is precies de reden waarom deze mensachtige terminologie zo gevaarlijk is. We zouden de echte grenzen en gevaren van deze technologie kunnen bespreken, maar termen die AI bestempelen als bewuste wezens minimaliseren alleen de zorgen of verdoezelen de risico’s.
Mis geen enkele van onze onpartijdige technische inhoud en laboratoriumbeoordelingen. CNET toevoegen als favoriete Google-bron.
AI heeft geen ziel
AI-systemen hebben geen ziel, motieven, gevoelens of moraal. Ze ‘bekennen’ niet omdat ze zich door eerlijkheid gedwongen voelen, net zo min als een rekenmachine zich ‘verontschuldigt’ als je op de verkeerde toets drukt. Deze systemen genereren tekstpatronen op basis van statistische relaties die zijn geleerd uit enorme datasets.
Dat is het.
Alles wat menselijk aanvoelt, is de projectie van ons innerlijke leven op een zeer verfijnde spiegel.
Antropomorfiserende AI geeft mensen een verkeerd idee over wat deze systemen eigenlijk zijn. En dat heeft gevolgen. Wanneer we bewustzijn en emotionele intelligentie beginnen toe te kennen aan een entiteit waar die niet bestaat, beginnen we AI te vertrouwen op een manier waarop het nooit de bedoeling was dat het vertrouwd zou worden.
Tegenwoordig wenden meer mensen zich tot “Doctor ChatGPT”. medische begeleiding in plaats van te vertrouwen op erkende, gekwalificeerde artsen. Anderen wenden zich tot door AI gegenereerde reacties op gebieden zoals financiën, emotionele gezondheid en interpersoonlijke relaties. Sommigen worden afhankelijk pseudo-vriendschappen met chatbots en hen om advies vragen, ervan uitgaande dat alles wat een LLM uitspuugt ‘goed genoeg’ is om hun beslissingen en acties te onderbouwen.
Hoe we over AI moeten praten
Wanneer bedrijven antropomorfe taal gebruiken, vervagen ze de grens tussen simulatie en gevoel. De terminologie verhoogt de verwachtingen, wekt angst en leidt af van de echte kwesties die eigenlijk onze aandacht verdienen: vooroordelen in datasets, misbruik door slechte actoren, veiligheid, betrouwbaarheid en machtsconcentratie. Geen van deze onderwerpen vereist mystieke metaforen.
Neem het recente lek van Anthropic van zijn “zielsdocument,’ werd gebruikt om het karakter, de zelfperceptie en de identiteit van Claude Opus 4.5 te trainen. Dit gekke stukje interne documentatie was nooit bedoeld om een metafysische claim te maken – meer alsof de ingenieurs een debugging-gids gebruikten. De taal die deze bedrijven achter gesloten deuren gebruiken, sijpelt echter onvermijdelijk door in de manier waarop de algemene bevolking erover praat. En zodra die taal blijft hangen, vormt het onze gedachten over de technologie, en ook hoe we ons eromheen gedragen.
Of neem het onderzoek van OpenAI naar AI-onderzoek naar ‘sluwe plannen’waar een handvol zeldzame maar bedrieglijke reacties sommige onderzoekers ertoe bracht te concluderen dat modellen opzettelijk bepaalde mogelijkheden verborgen hielden. Het nauwkeurig onderzoeken van AI-resultaten is een goede praktijk; impliceren dat chatbots hun eigen motieven of strategieën kunnen hebben, is dat niet. Het rapport van OpenAI zei feitelijk dat dit gedrag het resultaat was van trainingsgegevens en bepaalde aanzetten tot trends, en niet van tekenen van bedrog. Maar omdat het het woord ‘snoepjes’ gebruikte, ging het gesprek over de bezorgdheid dat AI een soort achterbakse agent zou zijn.
Er zijn betere, nauwkeurigere en technischere woorden. In plaats van ‘ziel’, praat over de architectuur of training van een model. In plaats van ‘bekentenis’, noem het foutrapportage of interne consistentiecontroles. In plaats van een model ‘schema’s’ te noemen, beschrijf je het optimalisatieproces ervan. We moeten naar AI verwijzen met termen als trends, outputs, representaties, optimizers, modelupdates of trainingsdynamiek. Ze zijn niet zo dramatisch als ‘ziel’ of ‘bekentenis’, maar ze hebben het voordeel dat ze op de werkelijkheid zijn gebaseerd.
Om eerlijk te zijn, er zijn redenen waarom dit LLM-gedrag menselijk lijkt: bedrijven hebben ze getraind om ons na te bootsen.
Zoals de auteurs van de paper uit 2021 “Over de gevaren van stochastische papegaaien” benadrukte dat systemen die zijn gebouwd om menselijke taal en communicatie te repliceren dit uiteindelijk zullen weerspiegelen – onze woordenstroom, syntaxis, toon en teneur. De gelijkenis impliceert geen echt begrip. Het betekent dat het model presteert waarvoor het is geoptimaliseerd. Wanneer een chatbot net zo overtuigend imiteert als de chatbots nu kunnen, lezen we uiteindelijk de mensheid in de machine, ook al is zoiets niet aanwezig.
Taal vormt de publieke perceptie. Wanneer woorden slordig, magisch of opzettelijk antropomorf zijn, krijgt het publiek een vertekend beeld. Deze vervorming komt slechts één groep ten goede: de AI-bedrijven die profiteren van LLM’s die capabeler, nuttiger en menselijker lijken dan ze in werkelijkheid zijn.
Als AI-bedrijven het vertrouwen van het publiek willen opbouwen, is de eerste stap eenvoudig. Houd op met het behandelen van taalmodellen als mystieke wezens met een ziel. Zij hebben geen gevoelens, wij wel. Onze woorden moeten dat weerspiegelen en niet verdoezelen.



