Home Nieuws Uit onderzoek blijkt dat het gebruik van AI voor slechts 10 minuten...

Uit onderzoek blijkt dat het gebruik van AI voor slechts 10 minuten je lui en dom kan maken

4
0
Uit onderzoek blijkt dat het gebruik van AI voor slechts 10 minuten je lui en dom kan maken

Het gebruik van AI-chatbots Want zelfs maar tien minuten kunnen een schokkend negatief effect hebben op het vermogen van mensen om na te denken en problemen op te lossen, aldus een onderzoek. nieuwe studie van onderzoekers van Carnegie Mellon, MIT, Oxford en UCLA.

Onderzoekers gaven mensen de opdracht om verschillende problemen op te lossen, waaronder eenvoudige breuken en begrijpend lezen, via een online platform dat hen voor hun werk betaalde. Ze voerden drie experimenten uit, waarbij bij elk enkele honderden mensen betrokken waren. Sommige deelnemers kregen toegang tot een AI-assistent die het probleem autonoom kon oplossen. Toen de AI-helper plotseling werd weggenomen, was de kans aanzienlijk groter dat deze mensen het probleem zouden opgeven of hun antwoorden zouden verdraaien. De studie suggereert dat wijdverbreid gebruik van AI de productiviteit zou kunnen verhogen ten koste van de ontwikkeling van fundamentele probleemoplossende vaardigheden.

“De conclusie is niet dat we AI in het onderwijs of op de werkplek moeten verbieden”, zegt Michiel Bakker, assistent-professor aan het MIT die bij het onderzoek betrokken is. “AI kan mensen duidelijk helpen beter te presteren op dit moment, en dat kan waardevol zijn. Maar we moeten voorzichtiger zijn met wat voor soort hulp AI biedt, en wanneer.”

Onlangs ontmoette ik Bakker, die chaotisch haar en een brede grijns heeft, op de campus van MIT. Hij komt oorspronkelijk uit Nederland en werkte eerder bij Google DeepMind in Londen. Hij vertelde mij dat A bekende opstel over de manier waarop AI mensen in de loop van de tijd kan ontkrachten, inspireerde hem om na te denken over hoe de technologie de capaciteiten van mensen nu al zou kunnen uithollen. Het essay zorgt voor een enigszins sombere lectuur, omdat het suggereert dat machteloosheid onvermijdelijk is. Dat gezegd hebbende, zou het uitzoeken hoe AI mensen kan helpen hun eigen mentale vermogens te ontwikkelen, misschien deel moeten uitmaken van de manier waarop modellen in lijn worden gebracht met menselijke waarden.

“Het is in wezen een cognitieve vraag – over doorzettingsvermogen, leren en hoe mensen reageren op moeilijkheden”, vertelt Bakker. “We wilden deze bredere zorgen over de lange termijn mens-AI-interactie meenemen en deze in een gecontroleerde experimentele setting bestuderen.”

Het resulterende onderzoek lijkt bijzonder zorgwekkend, zegt Bakker, omdat de bereidheid van een persoon om door te gaan met het oplossen van problemen cruciaal is voor het verwerven van nieuwe vaardigheden en ook zijn leervermogen in de loop van de tijd voorspelt.

Bakker zegt dat het misschien nodig is om opnieuw na te denken over de manier waarop AI-tools werken, zodat modellen – net als een goede menselijke leraar – soms prioriteit geven aan het leren van een persoon boven het oplossen van een probleem voor hem of haar. “Systemen die directe antwoorden geven, kunnen op de lange termijn heel andere effecten hebben dan systemen die de gebruiker ondersteunen, coachen of uitdagen”, zegt Bakker. Hij geeft echter toe dat het lastig kan zijn om een ​​evenwicht te vinden tussen dit soort ‘paternalistische’ benaderingen.

AI-bedrijven denken al na over de subtielere effecten die hun modellen op gebruikers kunnen hebben. De sycofantie van sommige modellen – of hoe waarschijnlijk het is dat ze het eens zijn met gebruikers en hen betuttelen – is iets dat OpenAI heeft geprobeerd de situatie af te zwakken met nieuwere releases van GPT.

Te veel vertrouwen stellen in AI lijkt vooral problematisch als de tools zich mogelijk niet gedragen zoals je verwacht. Agentische AI-systemen zijn bijzonder onvoorspelbaar omdat ze zelfstandig complexe klusjes uitvoeren en vreemde fouten kunnen introduceren. Je vraagt ​​je af wat Claude Code en Codex doen met de vaardigheden van programmeurs die soms de bugs die ze introduceren moeten repareren.

Ik heb onlangs een les gekregen in het gevaar om kritisch denken over te dragen aan AI. Ik gebruik OpenClaw (met Codex erin) als dagelijkse hulp, en ik heb gemerkt dat het opmerkelijk goed is in het oplossen van configuratieproblemen op Linux. Maar onlangs, nadat mijn wifi-verbinding steeds wegviel, stelde mijn AI-assistent voor om een ​​reeks opdrachten uit te voeren om de driver die met de wifi-kaart praat, aan te passen. Het resultaat was een machine die weigerde op te starten, wat ik ook deed.

Misschien had OpenClaw, in plaats van simpelweg te proberen het probleem voor mij op te lossen, moeten pauzeren om mij te leren hoe ik het probleem voor mezelf kon oplossen. Als gevolg daarvan heb ik misschien een capabelere computer (en hersenen).


Dit is een editie van Will Ridders AI Lab-nieuwsbrief. Lees eerdere nieuwsbrieven hier.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in