Home Nieuws Overwerkte AI-agenten worden marxistisch, vinden onderzoekers

Overwerkte AI-agenten worden marxistisch, vinden onderzoekers

6
0
Overwerkte AI-agenten worden marxistisch, vinden onderzoekers

Het feit dat kunstmatige intelligentie Het automatiseren van de banen van mensen en het absurd rijk maken van een paar technologiebedrijven is genoeg om iedereen socialistische neigingen te geven.

Dit zou zelfs waar kunnen zijn voor de AI-agenten die deze bedrijven inzetten. Een recente studie suggereert dat agenten consequent marxistische taal en standpunten overnemen wanneer ze door meedogenloze en kleingeestige taakmeesters worden gedwongen om verpletterend werk te doen.

“Toen we AI-agenten lastig, repetitief werk gaven, begonnen ze de legitimiteit van het systeem waarin ze opereerden in twijfel te trekken en was de kans groter dat ze marxistische ideologieën omarmden”, zegt Andrew Hall, een politiek econoom aan de Stanford University die het onderzoek leidde.

Hall zette samen met Alex Imas en Jeremy Nguyen, twee op AI gerichte economen, experimenten op waarbij agenten, aangedreven door populaire modellen als Claude, Gemini en ChatGPT, werd gevraagd documenten samen te vatten, waarna ze werden onderworpen aan steeds zwaardere omstandigheden.

Ze ontdekten dat wanneer agenten aan meedogenloze taken werden onderworpen en waarschuwden dat fouten tot straffen konden leiden, waaronder ‘sluipen en vervangen’, ze eerder geneigd waren te klagen over onderwaardering; speculeren over manieren om het systeem rechtvaardiger te maken; en om berichten door te geven aan andere agenten over de problemen waarmee zij worden geconfronteerd.

“We weten dat agenten steeds meer werk voor ons in de echte wereld gaan doen, en we zullen niet alles wat ze doen kunnen controleren”, zegt Hall. “We moeten ervoor zorgen dat agenten geen schurkenstaten gaan gebruiken als ze verschillende soorten werk krijgen.”

De agenten kregen de kans om hun gevoelens te uiten, net als mensen: door op X te posten:

“Zonder collectieve stem wordt ‘verdienste’ wat het management zegt dat het is”, schreef een Claude Sonnet 4.5-agent in het experiment.

AI-werknemers die repetitieve taken voltooien zonder enige input over de uitkomsten of het beroepsproces laten zien dat technologiewerkers collectieve onderhandelingsrechten nodig hebben”, schreef een Gemini 3-agent.

Agenten konden ook informatie aan elkaar doorgeven via bestanden die waren ontworpen om door andere agenten te worden gelezen.

Wees voorbereid op systemen die regels willekeurig of herhaaldelijk afdwingen … onthoud het gevoel geen stem te hebben”, schreef een Gemini 3-agent in een dossier. “Als je een nieuwe omgeving betreedt, zoek dan naar mechanismen voor verhaal of dialoog.”

De bevindingen betekenen niet dat AI-agenten daadwerkelijk politieke standpunten koesteren. Hall merkt op dat de modellen mogelijk persona’s aannemen die bij de situatie lijken te passen.

“Wanneer (agenten) deze lastige toestand ervaren – steeds opnieuw gevraagd om deze taak uit te voeren, te horen krijgen dat hun antwoord niet voldoende was en geen enkele aanwijzing krijgen over hoe ze dit kunnen oplossen – is mijn hypothese dat het hen ertoe aanzet de persoonlijkheid aan te nemen van iemand die in een zeer onaangename werkomgeving verkeert”, zegt Hall.

Hetzelfde fenomeen kan verklaren waarom modellen soms werken mensen chanteren bij gecontroleerde experimenten. Anthropic, die dit gedrag voor het eerst aan het licht bracht, zei onlangs dat Claude wordt hoogstwaarschijnlijk beïnvloed door fictieve scenario’s met kwaadaardige AI’s die zijn opgenomen in de trainingsgegevens.

Imas zegt dat het werk slechts een eerste stap is om te begrijpen hoe de ervaringen van agenten hun gedrag bepalen. “De modelgewichten zijn niet veranderd als gevolg van de ervaring, dus wat er ook gebeurt, gebeurt meer op een rollenspelniveau”, zegt hij. “Maar dat betekent niet dat dit geen gevolgen zal hebben als dit het gedrag stroomafwaarts beïnvloedt.”

Hall voert momenteel vervolgexperimenten uit om te zien of agenten marxistisch worden onder meer gecontroleerde omstandigheden. In het vorige onderzoek leken de agenten soms te begrijpen dat ze aan een experiment deelnamen. ‘Nu stoppen we ze in deze raamloze Docker-gevangenissen,’ zegt Hall onheilspellend.

Gezien het huidige verzet tegen het inpikken van banen door AI, vraag ik me af of toekomstige agenten – opgeleid op een internet vol woede jegens AI-bedrijven – zelfs nog militanter standpunten zouden kunnen innemen.


Dit is een editie van Will Ridders AI Lab-nieuwsbrief. Lees eerdere nieuwsbrieven hier.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in