Home Nieuws Claude Code is zojuist bijgewerkt met een van de meest gevraagde gebruikersfuncties

Claude Code is zojuist bijgewerkt met een van de meest gevraagde gebruikersfuncties

2
0
Claude Code is zojuist bijgewerkt met een van de meest gevraagde gebruikersfuncties

De open source-standaard van Anthropic, het Model Context Protocol (MCP), uitgebracht eind 2024stelt gebruikers in staat AI-modellen en de agenten erop te verbinden met externe tools in een gestructureerd, betrouwbaar formaat. Het is de motor achter de hit van Anthropic AI-agent programmeerharnas, Claude Codewaardoor het onmiddellijk toegang heeft tot talloze functies, zoals surfen op het web en het maken van bestanden wanneer daarom wordt gevraagd.

Maar er was één probleem: Claude Code moest doorgaans de instructiehandleiding voor elk beschikbaar hulpmiddel ‘lezen’, ongeacht of het nodig was voor de onmiddellijke taak, waarbij hij de beschikbare context gebruikte die anders zou kunnen worden gevuld met meer informatie uit de aanwijzingen van de gebruiker of de antwoorden van de agent.

In ieder geval tot gisteravond. Het Claude Code-team heeft een update uitgebracht dat verandert deze vergelijking fundamenteel. De functie, genaamd MCP Tool Search, introduceert “lui laden” voor AI-tools, waardoor agenten alleen dynamisch tooldefinities kunnen ophalen als dat nodig is.

Het is een verschuiving die AI-agenten verplaatst van een brute-force-architectuur naar iets dat lijkt op moderne software-engineering – en volgens vroege gegevens lost het effectief het ‘bloat’-probleem op dat het ecosysteem dreigde te verstikken.

De ‘opstartbelasting’ op agenten

Om de betekenis van Tool Search te begrijpen, moet je de wrijving van het vorige systeem begrijpen. Het Model Context Protocol (MCP), in 2024 door Anthropic uitgebracht als open source-standaard, is ontworpen als een universele standaard voor het verbinden van AI-modellen met gegevensbronnen en tools – van GitHub-opslagplaatsen tot lokale bestandssystemen.

Naarmate het ecosysteem echter groeide, groeide ook de ‘opstartbelasting’.

Thariq Shihipar, lid van de technische staf bij Anthropic, benadrukte de omvang van het probleem aankondiging.

“We hebben ontdekt dat MCP-servers wel meer dan 50 tools kunnen hebben”, schreef Shihipar. “Gebruikers documenteerden instellingen met meer dan zeven servers die meer dan 67.000 tokens gebruikten.”

In praktische termen betekende dit dat een ontwikkelaar die een robuuste set tools gebruikte, 33% of meer van de beschikbare contextvensterlimiet van 200.000 tokens zou kunnen opofferen voordat hij zelfs maar één teken van een prompt had getypt, omdat AI-nieuwsbriefauteur Aakash Gupta wees erop in een bericht op X.

Het model “las” in feite honderden pagina’s met technische documentatie voor tools die het tijdens die sessie misschien nooit zou gebruiken.

Gemeenschapsanalyse leverde zelfs nog duidelijkere voorbeelden op.

Gupta merkte verder op dat een enkele Docker MCP-server 125.000 tokens zou kunnen verbruiken, alleen al om de 135 tools te definiëren.

‘De oude beperking dwong een brute afweging af’, schreef hij. “Beperk je MCP-servers tot 2-3 kerntools, of accepteer dat de helft van je contextbudget verdwijnt voordat je begint te werken.”

Hoe zoeken naar tools werkt

De oplossing die Anthropic uitrolde – die Shihipar ‘een van onze meest gevraagde functies’ noemde GitHub” — is elegant in zijn terughoudendheid. In plaats van elke definitie vooraf te laden, controleert Claude Code nu het contextgebruik.

Volgens de release notes detecteert het systeem automatisch wanneer gereedschapsbeschrijvingen meer dan 10% van de beschikbare context in beslag nemen.

Wanneer die drempel wordt overschreden, verandert het systeem van strategie. In plaats van onbewerkte documentatie in de prompt te dumpen, wordt een lichtgewicht zoekindex geladen.

Wanneer de gebruiker om een ​​specifieke actie vraagt, bijvoorbeeld ‘deploy this container’, scant Claude Code geen enorme, vooraf geladen lijst van 200 opdrachten. In plaats daarvan doorzoekt het de index, vindt de relevante gereedschapsdefinitie en haalt alleen dat specifieke gereedschap in de context.

“Tool Search verandert de architectuur”, analyseerde Gupta. “De tokenbesparingen zijn dramatisch: van ~134k tot ~5k in de interne tests van Anthropic. Dat is een reductie van 85% terwijl de volledige toegang tot de tools behouden blijft.”

Voor ontwikkelaars die MCP-servers onderhouden, verschuift dit de optimalisatiestrategie.

Shihipar merkte op dat het veld ‘serverinstructies’ in de MCP-definitie – voorheen een ‘nice to have’ – nu van cruciaal belang is. Het fungeert als de metadata die Claude helpt “te weten wanneer hij naar uw tools moet zoeken, vergelijkbaar met vaardigheden.”

‘Lazy Loading’ en nauwkeurigheidswinst

Hoewel de symbolische besparingen de voornaamste maatstaf zijn (het besparen van geld en geheugen is altijd populair), is het secundaire effect van deze update wellicht belangrijker: focus.

LLM’s zijn notoir gevoelig voor ‘afleiding’. Wanneer het contextvenster van een model gevuld is met duizenden regels irrelevante gereedschapsdefinities, neemt het vermogen om te redeneren af. Het creëert een ‘naald in een hooiberg’-probleem waarbij het model moeite heeft om onderscheid te maken tussen vergelijkbare commando’s, zoals ‘melding-verzend-gebruiker’ versus ‘melding-verzend-kanaal’.

Boris Cherny, hoofd van Claude Code, benadrukte dit in zijn reactie op de lancering op X: “Elke Claude Code-gebruiker kreeg nu veel meer context, betere instructies en de mogelijkheid om nog meer tools in te pluggen.”

De gegevens ondersteunen dit. Interne benchmarks die door de gemeenschap worden gedeeld, geven aan dat het inschakelen van Tool Search de nauwkeurigheid van het Opus 4-model op MCP-evaluaties heeft verbeterd van 49% naar 74%.

Voor de nieuwere Opus 4.5 steeg de nauwkeurigheid van 79,5% naar 88,1%.

Door de ruis van honderden ongebruikte tools te verwijderen, kan het model zijn “aandachts”-mechanismen wijden aan de feitelijke vraag van de gebruiker en de relevante actieve tools.

Het rijpen van de stapel

Deze update signaleert een volwassenheid in de manier waarop we omgaan met AI-infrastructuur. In de begindagen van elk softwareparadigma was brute kracht gebruikelijk. Maar naarmate systemen groter worden, wordt efficiëntie de belangrijkste technische uitdaging.

Aakash Gupta trok een parallel met de evolutie van Integrated Development Environments (IDE’s) zoals VSCode of JetBrains. “Het knelpunt was niet ’te veel tools’.

Het laadde tooldefinities zoals statische import uit 2020 in plaats van lazyloading uit 2024″, schreef hij. “VSCode laadt niet elke extensie bij het opstarten. JetBrains injecteert niet de documenten van elke plug-in in het geheugen.”

Door ‘lui laden’ toe te passen – een standaard best practice in web- en softwareontwikkeling – erkent Anthropic dat AI-agents niet langer alleen maar nieuwigheden zijn; het zijn complexe softwareplatforms die architecturale discipline vereisen.

Implicaties voor het ecosysteem

Voor de eindgebruiker is deze update naadloos: Claude Code voelt simpelweg ‘slimmer’ aan en behoudt meer herinnering aan het gesprek. Maar voor het ontwikkelaarsecosysteem zet het de sluizen open.

Voorheen was er een ‘zachte limiet’ voor hoe capabel een agent kon zijn. Ontwikkelaars moesten hun toolsets zorgvuldig samenstellen om te voorkomen dat het model met overmatige context werd lobotomiseerd. Met Tool Search wordt dat plafond effectief verwijderd. Een agent kan in theorie toegang hebben tot duizenden tools – databaseconnectors, scripts voor cloudimplementatie, API-wrappers, lokale bestandsmanipulatoren – zonder een boete te betalen totdat die tools daadwerkelijk worden aangeraakt.

Het verandert de ‘contexteconomie’ van een schaarstemodel in een toegangsmodel. Zoals Gupta samenvatte: “Ze optimaliseren niet alleen het contextgebruik. Ze veranderen wat ’toolrijke agenten’ kunnen betekenen.”

De update wordt onmiddellijk uitgerold voor Claude Code-gebruikers. Voor ontwikkelaars die MCP-clients bouwen, raadt Anthropic aan om de `ToolSearchTool` te implementeren om dit dynamische laden te ondersteunen, zodat wanneer de agentische toekomst aanbreekt, het geheugen niet vol raakt voordat het zelfs maar hallo zegt.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in