Denkt u dat AI u slimmer maakt?
Waarschijnlijk niet, volgens Saul Perlmutter, een Nobelprijswinnend natuurkundige die werd gecrediteerd voor zijn ontdekking dat de uitdijing van het universum versnelt.
Hij zei dat het grootste gevaar van AI psychologisch is: het kan mensen de mogelijkheid geven illusie dat ze iets begrijpen als ze dat niet doen, verzwakken ze het beoordelingsvermogen, net zoals de technologie steeds meer ingebed raakt in ons dagelijks werk en leren.
“Het lastige van AI is dat het de indruk kan wekken dat je de basis al hebt geleerd voordat je dat echt hebt gedaan,” Dat zei Perlmutter woensdag in een podcastaflevering met Nicolai Tangen, CEO van Norges Bank Investment Group.
“Er bestaat een klein gevaar dat studenten er net iets te snel op vertrouwen voordat ze weten hoe ze het intellectuele werk zelf moeten doen”, voegde hij eraan toe.
In plaats van AI regelrecht af te wijzen, zei Perlmutter dat het antwoord is om het te behandelen als een hulpmiddel – een hulpmiddel dat het denken ondersteunt in plaats van het voor u te doen.
Gebruik AI als hulpmiddel en niet als vervanging
Perlmutter zei dat AI krachtig kan zijn, maar alleen als gebruikers al weten hoe ze kritisch moeten denken.
“Het positieve is dat als je al deze verschillende hulpmiddelen en benaderingen kent om over een probleem na te denken, AI je vaak kan helpen het stukje informatie te vinden dat je nodig hebt”, zei hij.
Bij UC Berkeley, waar Perlmutter lesgeeft, ontwikkelden hij en zijn collega’s een cursus kritisch denken waarin het centraal stond wetenschappelijke redeneringinclusief probabilistisch denken, foutcontrole, scepticisme en gestructureerde meningsverschillen, aangeleerd door middel van spelletjes, oefeningen en discussies die bedoeld zijn om deze gewoonten automatisch te maken in alledaagse beslissingen.
“Ik vraag de studenten om heel goed na te denken over hoe je AI zou gebruiken om het gemakkelijker te maken om dit concept daadwerkelijk te implementeren – om het echt in je dagelijkse leven te gebruiken”, zei hij.
Het vertrouwensprobleem
Een van de zorgen van Perlmutter is dat AI vaak met veel meer zekerheid spreekt dan het verdient en ‘overdreven zeker’ kan zijn van wat het zegt.
De uitdaging, zegt Perlmutter, is dat de zelfverzekerde toon van AI het scepticisme kan kortsluiten, waardoor mensen eerder geneigd zijn de antwoorden op het eerste gezicht te accepteren in plaats van zich af te vragen of ze juist zijn.
Dat vertrouwen, zei hij, weerspiegelt een van de gevaarlijkste menselijke cognitieve vooroordelen: vertrouwende informatie die gezaghebbend lijkt of onze bestaande overtuigingen bevestigt.
Om dat instinct tegen te gaan, zei Perlmutter dat mensen AI-resultaten op dezelfde manier moeten beoordelen als elke menselijke claim: geloofwaardigheid, onzekerheid en de mogelijkheid van fouten afwegen in plaats van antwoorden zonder meer te accepteren.
Leren vangen als je voor de gek wordt gehouden
In de wetenschap, zegt Perlmutter, gaan onderzoekers ervan uit dat ze fouten maken systemen bouwen om ze te vangen. Wetenschappers verbergen bijvoorbeeld hun resultaten voor zichzelf, zei hij, totdat ze uitvoerig op fouten hebben gecontroleerd, waardoor de voorkeur voor bevestiging wordt verminderd.
Dezelfde mentaliteit geldt voor AI, voegde hij eraan toe.
“Veel van deze concepten zijn slechts hulpmiddelen om na te denken over waar worden we voor de gek gehouden”, zei hij. “We kunnen onszelf voor de gek houden, de AI kan zichzelf voor de gek houden, en vervolgens ons voor de gek houden.”
Daarom houdt AI-geletterdheid ook in dat je weet wanneer je de output niet moet vertrouwen, zei hij – en dat je je op je gemak voelt met onzekerheid, in plaats van de AI-outputs als absolute waarheid te behandelen.
Toch is Perlmutter duidelijk dat dit geen probleem is met een permanente oplossing.
“AI zal veranderen”, zei hij, “en we zullen ons moeten blijven afvragen: helpt het ons, of worden we vaker voor de gek gehouden? Laten we ons voor de gek houden?”


