Anthropic heeft zojuist een nieuwe functie aangekondigd genaamd “dreaming” op de ontwikkelaarsconferentie van het bedrijf in San Francisco. Het maakt deel uit van de onlangs gelanceerde Anthropic Ik heb een agent infrastructuur die is ontworpen om gebruikers te helpen bij het beheren en implementeren van tools die softwareprocessen automatiseren. Dit ‘dromen’-aspect doorzoekt het transcript van wat een agent onlangs heeft voltooid en probeert inzichten te verzamelen om de prestaties van de agent te verbeteren.
Mensen die AI-agenten gebruiken, sturen ze vaak op een reis die uit meerdere stappen bestaat, zoals het bezoeken van een paar websites of het lezen van meerdere bestanden, om online taken uit te voeren. Met deze nieuwe ‘dromen’-functie kunnen agenten naar patronen in hun activiteitenlogboek zoeken en hun vaardigheden verbeteren op basis van die inzichten.
De naam van de speelfilm doet onmiddellijk denken aan de baanbrekende sciencefictionroman van Philip K. Dick, Dromen Androids van elektrische schapen?waarin de kwaliteiten worden onderzocht die mensen echt onderscheiden van krachtige machines. Hoewel onze huidige generatieve AI-tools bij lange na niet in de buurt komen van de machines in het boek, ben ik er klaar voor om hier en nu de grens te trekken: niet meer generatieve AI functies met namen die menselijke cognitieve processen afzetten.
“Samen vormen geheugen en dromen een robuust geheugensysteem voor mensen die zichzelf verbeteren”, luidt het Anthropic’s blogpost over de lancering van deze onderzoekspreview voor ontwikkelaars. “Dankzij het geheugen kan elke agent vastleggen wat hij leert zoals het werkt. Dromen verfijnt die herinnering tussen sessieshet verzamelen van gedeelde inzichten tussen agenten en het up-to-date houden ervan.”
Met dank aan Claude
Sinds de vonk van de chatbot In de revolutie van 2022 zijn leiders bij AI-bedrijven volop bezig geweest met het benoemen van aspecten van generatieve AI-tools naar wat er in het menselijk brein gebeurt. OpenAI heeft zijn eerste uitgebracht ‘redeneringsmodel’ in 2024, waar de chatbot ‘denktijd’ nodig had. De bedrijf beschreven deze release destijds als “een nieuwe serie AI-modellen die zijn ontworpen om meer tijd te besteden aan nadenken voordat ze reageren.” Talrijke startups noemen hun chatbots ook ‘herinneringen’ over de gebruiker. In plaats van de snelle opslag die doorgaans de ‘herinneringen’ van een computer wordt genoemd, zijn dit veel meer menselijke klompjes informatie: hij woont in San Francisco, houdt van honkbalwedstrijden in de middag en heeft een hekel aan het eten van meloen.
Het is een consistente marketingaanpak die wordt gebruikt door AI-leiders, die zijn blijven leunen op branding die de grens vervaagt tussen wat mensen doen en wat machines kunnen. Zelfs de manieren waarop deze bedrijven chatbots ontwikkelen, zoals Claudemet verschillende ‘persoonlijkheden’, kunnen gebruikers het gevoel geven dat ze met iets praten dat het potentieel heeft voor een diep innerlijk leven, iets dat zou heb mogelijk dromen, zelfs als mijn laptop gesloten is.
Bij Anthropic gaat deze antropomorfisering dieper dan alleen marketingstrategieën. “We bespreken Claude ook in termen die normaal gesproken voorbehouden zijn aan mensen (bijvoorbeeld ‘deugd’, ‘wijsheid’),’ luidt een deel van Antropische grondwet beschrijft hoe hij wil dat Claude zich gedraagt. “We doen dit omdat we verwachten dat Claude’s redenering standaard gebaseerd zal zijn op menselijke concepten, gezien de rol van menselijke tekst in Claude’s training; en we denken dat het aanmoedigen van Claude om bepaalde menselijke kwaliteiten te omarmen actief wenselijk kan zijn.” Het bedrijf heeft zelfs een woonfilosoof om te proberen de ‘waarden’ van de bot te begrijpen.



