Home Nieuws Anthropic wil eigenaar zijn van het geheugen, de evaluaties en de orkestratie...

Anthropic wil eigenaar zijn van het geheugen, de evaluaties en de orkestratie van uw agent – ​​en dat zou bedrijven zenuwachtig moeten maken

6
0
Anthropic wil eigenaar zijn van het geheugen, de evaluaties en de orkestratie van uw agent – ​​en dat zou bedrijven zenuwachtig moeten maken

Nog maar een paar weken na de aankondiging van Claude Managed AgentsAnthropic heeft het platform bijgewerkt met drie nieuwe mogelijkheden die infrastructuurlagen zoals geheugen, evaluatie en multi-agent-orkestratie samenbrengen in één runtime.

Deze stap zou een bedreiging kunnen vormen voor de op zichzelf staande tools die veel bedrijven in elkaar flansen.

De nieuwe mogelijkheden – ‘Dreaming’, ‘Outcomes’ en ‘Multi-Agent Orchestration’ – zijn bedoeld om agenten binnen Claude Managed Agents “beter in staat te stellen complexe taken uit te voeren met minimale sturing”, aldus Anthropic in een persbericht.

Dromen gaat over het geheugen, waarbij agenten ‘reflecteren’ op hun vele sessies en herinneringen samenstellen, zodat ze onbekende patronen leren en aan het licht brengen. Met Outcomes kunnen teams specifieke rubrieken definiëren en instellen om het succes van een agent te meten, terwijl Multi-Agent Orchestration taken opsplitst, zodat een hoofdagent aan andere agenten kan delegeren.

Claude Managed Agents biedt bedrijven idealiter een eenvoudiger pad om agenten in te zetten en orkestratielogica in de modellaag in te sluiten. Het is een end-to-end platform voor het beheren van status, uitvoeringsgrafieken en routing. Met de toevoeging van Dreaming, Outcomes en Multi-agent Orchestration breidt Claude Managed Agents de mogelijkheden nog verder uit en concurreert het rechtstreeks met tools als LangGraph of CrewAI, maar ook met externe evaluatieframeworks, RAG-geheugenarchitecturen en QA-loops.

Een integratiebedreiging

Bedrijven moeten zich nu afvragen: moeten we ons flexibele, modulaire systeem laten varen ten gunste van een agentenplatform dat bijna alles in eigen beheer brengt?

Anthropic heeft Claude Managed Agents ontworpen om context, status en traceerbaarheid op één plek te delen. Dit betekent dat het platform elke beslissing die agenten nemen, ziet, in plaats van dat bedrijven afzonderlijke systemen met elkaar moeten verbinden. Het klinkt praktisch om één platform te hebben dat alles doet. Maar niet alle ondernemingen willen een full-service systeem.

Claude Managed Agents krijgt al kritiek te verduren dat het de lock-in van leveranciers aanmoedigt omdat het de meeste architectuur en tools bezit die agenten aansturen. In het huidige paradigma kan een organisatie Managed Agents gebruiken, maar de orkestratie, het geheugen of de evaluaties van meerdere agenten in een aparte ruimte houden, zorgt voor flexibiliteit.

Het platform biedt een volledig gehoste runtime, wat betekent dat geheugen en orkestratie draaien op infrastructuur waarvan de onderneming niet de eigenaar is. Dit kan een compliance-nachtmerrie worden voor sommige organisaties die de dataresidentie moeten bewijzen.

Een ander probleem waarmee rekening moet worden gehouden, is dat bedrijven die zich al midden in grootschalige AI-transformaties bevinden, oplossingen moeten bedenken om met de beperkingen van hun tech-stack om te gaan. Niet iedere workflow is eenvoudig te vervangen door over te stappen op Claude Managed Agents.

Dromen en resultaten tegen de huidige instrumenten

De meeste bedrijven hanteren een gefragmenteerde benadering van de inzet van AI.

Ze kunnen bijvoorbeeld LangGraph of Crew AI gebruiken voor agentrouting en workflowbeheer, Pinecone als vectordatabase voor langetermijngeheugen, DeepEval voor externe evaluatie en een human-in-the-loop kwaliteitsborging om sommige taken te beoordelen. Anthropic hoopt dat allemaal af te schaffen.

Met Dreaming benadert Anthropic het geheugen door gebruikers in staat te stellen het tussen sessies door actief te herschrijven, zodat de agent in wezen leert van zijn fouten. Anthropic zegt dat deze mogelijkheid nuttig is voor langlopende staten en orkestratie. De huidige systemen gaan vaak om met geheugenpersistentie door inbedding op te slaan, relevante context op te halen en in de loop van de tijd meer status toe te voegen.

Outcomes richt zich op het evaluatiegedeelte door de verwachtingen voor agenten te beschrijven. In plaats van externe kwaliteitscontroles, die vaak door een team van mensen worden uitgevoerd, brengt Anthropic evaluatie in de orkestratielaag in plaats van daarboven.

Maar het is de Multi-Agent Orchestration-mogelijkheid die Claude Managed Agents tegenover orkestratieframeworks van Microsoft, LangChain, CrewAI en anderen plaatst. Modelaanbieders zoals Anthropic en OpenAI zijn al agressief begonnen deze ruimte te betreden, met het argument dat het brengen van dit naar de modellaag teams betere controle geeft.

Grote beslissingen om te nemen

Bedrijven staan ​​voor een grote beslissing, en deze kan afhangen van de mate waarin ze zich bevinden in de volwassenheid van agenten.

Als een organisatie nog steeds met agenten experimenteert en er nog niet veel in de productie heeft ingezet, kan het veel gemakkelijker zijn om over te stappen op Claude Managed Agents en Dreaming and Outcomes naar hun behoeften te configureren. Dit is de ontwikkelingsfase waarin bedrijven, zelfs als ze een orkestrator van derden zoals LangChain gebruiken, deze nog steeds aanpassen.

Maar voor degenen die al verder in het proces zijn, wordt de berekening lastiger. Het is nu een kwestie van parallelle evaluatie en een beter begrip van hun processen.

Bedrijven zullen echter met dezelfde beslissing worden geconfronteerd, zelfs als ze niet van plan zijn Claude Managed Agents te gebruiken. Anthropic heeft aangegeven dat andere model- en platformaanbieders hun productroadmaps waarschijnlijk zullen verschuiven naar een soortgelijk model dat alles in hetzelfde systeem opgesloten houdt – omdat modellen misschien uitwisselbaar worden, maar de tooling- en orkestratie-infrastructuur niet.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in