Home Nieuws Claude van Anthropic neemt de controle over een robothond

Claude van Anthropic neemt de controle over een robothond

14
0

Naarmate meer robots opduiken in magazijnen, kantoren en zelfs bij mensen thuis, klinkt het idee van grote taalmodellen die complexe systemen hacken als het spul van sciencefiction-nachtmerries. Dus natuurlijk, Antropisch onderzoekers wilden graag zien wat er zou gebeuren als Claude zou proberen de controle over een robot over te nemen – in dit geval een robothond.

In een nieuwe studie ontdekten Anthropic-onderzoekers dat Claude een groot deel van het werk dat betrokken is bij het programmeren van een robot en het uitvoeren van fysieke taken kon automatiseren. Op één niveau laten hun bevindingen de agentische codeermogelijkheden van moderne AI-modellen zien. Aan de andere kant geven ze aan hoe deze systemen zich naar het fysieke domein kunnen gaan uitbreiden naarmate modellen meer aspecten van coderen onder de knie krijgen en beter worden in de interactie met software – en ook met fysieke objecten.

“We hebben het vermoeden dat de volgende stap voor AI-modellen is om de wereld te bereiken en de wereld breder te beïnvloeden”, vertelt Logan Graham, lid van het rode team van Anthropic, dat modellen bestudeert op potentiële risico’s, aan WIRED. “Dit vereist echt dat modellen meer met robots communiceren.”

Met dank aan Anthropic

Met dank aan Anthropic

Anthropic werd in 2021 opgericht door voormalige medewerkers van OpenAI die geloofden dat AI problematisch – en zelfs gevaarlijk – zou kunnen worden naarmate de ontwikkeling ervan toeneemt. De huidige modellen zijn niet slim genoeg om de volledige controle over een robot over te nemen, zegt Graham, maar toekomstige modellen kunnen dat wel zijn. Hij zegt dat het bestuderen van de manier waarop mensen LLM’s gebruiken om robots te programmeren de industrie kan helpen zich voor te bereiden op het idee van ‘modellen die zichzelf uiteindelijk belichamen’, verwijzend naar het idee dat AI ooit fysieke systemen kan besturen.

Het is nog steeds onduidelijk waarom een ​​AI-model zou besluiten de controle over een robot over te nemen, laat staan ​​er iets kwaadaardigs mee te doen. Maar speculeren over het worstcasescenario maakt deel uit van het merk Anthropic en helpt het bedrijf te positioneren als een belangrijke speler in de verantwoordelijke AI-beweging.

In het experiment, genaamd Project Fetch, vroeg Anthropic twee groepen onderzoekers zonder eerdere robotica-ervaring om de controle over een robothond, de Unitree Go2 viervoeter, over te nemen en deze te programmeren om specifieke activiteiten uit te voeren. De teams kregen toegang tot een controller en werden vervolgens gevraagd steeds complexere taken uit te voeren. De ene groep gebruikte het codeermodel van Claude; de ​​andere groep schreef code zonder hulp van AI. De groep die Claude gebruikte, kon sommige (maar niet alle) taken sneller voltooien dan de programmeergroep die alleen uit mensen bestond. Het was bijvoorbeeld in staat om de robot rond te laten lopen en een strandbal te vinden, iets dat de groep die alleen uit mensen bestaat niet kon achterhalen.

Anthropic bestudeerde ook de samenwerkingsdynamiek in beide teams door hun interacties vast te leggen en te analyseren. Ze ontdekten dat de groep zonder toegang tot Claude meer negatieve gevoelens en verwarring vertoonde. Dit kan zijn omdat Claude de verbinding met de robot sneller maakte en een gebruiksvriendelijkere interface codeerde.

Met dank aan Anthropic

De Go2-robot die in de experimenten van Anthropic wordt gebruikt, kost $ 16.900 – relatief goedkoop, naar robotstandaarden. Het wordt doorgaans ingezet in sectoren als de bouw en productie om inspecties op afstand en veiligheidspatrouilles uit te voeren. De robot kan autonoom lopen, maar is over het algemeen afhankelijk van softwareopdrachten op hoog niveau of van een persoon die een controller bedient. Go2 is gemaakt door Unitree, gevestigd in Hangzhou, China. Volgens een recente publicatie zijn de AI-systemen van het bedrijf momenteel het populairst op de markt rapport van SemiAnalysis.

De grote taalmodellen die ChatGPT en andere slimme chatbots aandrijven, genereren doorgaans tekst of afbeeldingen als reactie op een prompt. Meer recentelijk zijn deze systemen bedreven geworden in het genereren van code en het besturen van software, waardoor ze in agenten worden omgezet in plaats van alleen maar tekstgeneratoren.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in