Kan AI überhaupt iets voelen? De interne filosoof van Anthropic zegt dat het antwoord nog niet vastligt.
Amanda Askell, die werkt aan het vormgeven van Claude’s gedrag, zei in een aflevering van de podcast ‘Hard Fork’ die zaterdag werd gepubliceerd dat de debat over AI-bewustzijn blijft lastig.
“Misschien heb je een zenuwstelsel nodig om dingen te kunnen voelen, maar misschien ook niet”, zei Askell. “Het probleem van het bewustzijn is echt moeilijk”, voegde ze eraan toe.
Grote taalmodellen worden getraind op grote hoeveelheden door mensen geschreven tekst, materiaal gevuld met beschrijvingen van verschillende emoties en innerlijke ervaringen. Daarom zei Askell dat ze ‘meer geneigd’ is te geloven dat modellen ‘dingen voelen’.
Wanneer mensen een codeerprobleem verkeerd begrijpen, uiten ze vaak hun ergernis of frustratie. Het “is logisch” dat modellen die op die gesprekken zijn getraind, die reactie kunnen weerspiegelen, legde Askell uit.
Askell voegde eraan toe dat wetenschappers nog steeds niet weten wat aanleiding geeft tot gevoel of zelfbewustzijn – of daar biologie, evolutie of iets heel anders voor nodig is.
“Misschien is het zo dat voldoende grote neurale netwerken deze dingen een beetje kunnen nabootsen”, zei ze, verwijzend naar het bewustzijn.
Askell zei ook dat modellen voortdurend over zichzelf leren, en ze uitte haar bezorgdheid over de manier waarop AI-modellen van internet leren. Modellen zijn voortdurend blootgesteld aan kritiek over nutteloos zijn of falen in taken, zei ze.
“Als je een kind was, zou dit je een beetje ongerust maken”, zei ze.
“Als ik nu op internet zou lezen en een model zou zijn, zou ik kunnen zeggen: ik voel me niet zo geliefd”, voegde ze eraan toe.
Het debat rond AI-bewustzijn
Technologieleiders blijven verdeeld over de vraag of AI bewustzijn heeft.
De AI-CEO van Microsoft, Mustafa Suleyman heeft zich krachtig tegen dat idee uitgesproken. Hij zei in een interview met WIRED dat in september werd gepubliceerd dat de industrie duidelijk moet zijn dat AI is ontworpen om mensen te dienen, en niet om zijn eigen wil of verlangens te ontwikkelen.
“Als AI een soort gevoel van zichzelf heeft, als het zijn eigen motivaties, zijn eigen verlangens en zijn eigen doelen heeft, begint dat eerder een onafhankelijk wezen te lijken dan iets dat in dienst staat van de mens”, zei hij. “Dat is zo gevaarlijk en zo misleidend dat we er nu een declaratief standpunt tegen moeten innemen.”
Hij voegde eraan toe dat de steeds overtuigender wordende reacties van AI neerkomen op ‘nabootsing’ in plaats van op echt bewustzijn.
Anderen zien de kwestie minder definitief. De hoofdwetenschapper van Google DeepMind, Murray Shanahan, zei dat de industrie mogelijk de taal moet heroverwegen die wordt gebruikt om het bewustzijn zelf te beschrijven.
“Misschien moeten we de woordenschat van het bewustzijn buigen of breken om in deze nieuwe systemen te passen”, zei Shanahan in een aflevering van de Google Deepmind podcast gepubliceerd in april.


