De steigerlaag die ontwikkelaars ooit nodig hadden om LLM-applicaties te leveren – indexeringslagen, query-engines, ophaalpijplijnen, zorgvuldig georkestreerde agentloops – is aan het instorten. En volgens Jerry Liu, mede-oprichter en CEO van LlamaIndex, is dat geen probleem. Het is het punt.
“Als gevolg hiervan is er minder behoefte aan raamwerken om gebruikers daadwerkelijk te helpen deze deterministische workflows op een lichte en oppervlakkige manier samen te stellen”, legt Jerry Liu, mede-oprichter en CEO van LlamaIndex, uit in een nieuwe VentureBeat Beyond the Pilot-podcast.
Context wordt de gracht
Liu’s LlamaIndex is een van de belangrijkste Retrieval-Augmented Generation (RAG)-frameworks die privé-, aangepaste en domeinspecifieke gegevens verbinden met LLM’s. Maar zelfs hij erkent dat dit soort raamwerken minder relevant worden.
Met elke nieuwe release demonstreren modellen steeds meer mogelijkheden om over “enorme hoeveelheden” ongestructureerde data te redeneren, en ze worden er steeds beter in dan mensen, merkt hij op. Je kunt erop vertrouwen dat ze uitgebreid redeneren, zichzelf corrigeren en een meerstapsplanning uitvoeren; Met de plug-ins Modern Context Protocol (MCP) en Claude Agent Skills kunnen modellen tools ontdekken en gebruiken zonder dat er integraties voor iedereen afzonderlijk nodig zijn.
Patronenpatronen zijn geconsolideerd in de richting van wat Liu a noemt “beheerd agentdiagram” – een harnaslaag gecombineerd met tools, MCP-connectoren en plug-ins voor vaardigheden, in plaats van op maat gemaakte orkestratie voor elke workflow.
Bovendien blinken codeeragenten uit in het schrijven van code, wat betekent dat ontwikkelaars niet afhankelijk hoeven te zijn van uitgebreide bibliotheken. In feite wordt ongeveer 95% van de LlamaIndex-code gegenereerd door AI. “Ingenieurs schrijven niet echt echte code”, zei Liu. ‘Ze typen allemaal in natuurlijke taal.’ Dit betekent dat de lagen tussen programmeurs en niet-programmeurs instorten, omdat “de nieuwe programmeertaal in wezen Engels is.”
In plaats van handmatig te coderen of te worstelen met het begrijpen van API- en documentintegratie, kunnen ontwikkelaars Claude Code er gewoon op wijzen. “Dit soort dingen waren extreem inefficiënt of zouden de agent drie jaar geleden kapot maken”, zei Liu. “Het is gewoon veel gemakkelijker voor mensen om zelfs relatief geavanceerde ophaalsystemen te bouwen met uiterst eenvoudige primitieven.”
Dus wat is de belangrijkste onderscheidende factor als de stapel instort?
Context, zegt Liu. Agenten moeten bestandsformaten kunnen ontcijferen om de juiste informatie eruit te halen. Het bieden van hogere nauwkeurigheid en goedkoper parseren wordt van cruciaal belang, en LlamaIndex is hier goed gepositioneerd, beweert hij, vanwege de ontwikkelingen met agentische documentverwerking via optische tekenherkenning (OCR).
“We hebben echt vastgesteld dat er een kernset aan gegevens is opgesloten in al deze bestandsformaatcontainers”, zei hij. Uiteindelijk “maakt het niet zoveel uit of je OpenAI Codex of Claude Code gebruikt. Wat ze allemaal nodig hebben is context.”
Stapels modulair houden
Er is groeiende bezorgdheid over het feit dat bouwers als Anthropic sessiegegevens vastleggen; in het licht hiervan benadrukt Liu het belang van modulariteit en agnosticisme. Bouwers mogen niet wedden op één grensmodel, of overbouwen op een manier die de componenten van de stapel te ingewikkeld maakt.
Retrieval is geëvolueerd naar ‘agent-plus-sandbox’, zoals hij het beschrijft, en bedrijven moeten ervoor zorgen dat hun codebases vrij zijn van technische schulden en aanpasbaar zijn aan veranderende patronen. Ze moeten ook erkennen dat sommige delen van de stapel uiteindelijk vanzelfsprekend weggegooid moeten worden.
“Omdat bij elke nieuwe modelrelease er altijd een ander model is dat een beetje de winnaar is”, zei Liu. “Je wilt er zeker van zijn dat je daadwerkelijk enige flexibiliteit hebt om ervan te profiteren.”
Luister naar de podcast en hoor meer over:
-
Het begin van LlamaIndex als een ‘speelgoedproject’ met aanvankelijk slechts ongeveer 40% nauwkeurigheid;
-
Hoe SaaS-bedrijven gebruik kunnen maken van ingewikkelde workflows die gestandaardiseerd en herhaalbaar moeten zijn voor gemiddelde kenniswerkers;
-
Waarom verticale AI-bedrijven een hoge vlucht nemen en waarom ‘bouwen versus kopen’ nog steeds een zeer valide vraag is in het agententijdperk.
Je kunt ook luisteren en je abonneren Voorbij de piloot op Spotify, Appel of waar u uw podcasts ook vandaan haalt.



