Home Nieuws Het RAG-tijdperk loopt ten einde voor agentische AI ​​– een nieuwe kennislaag...

Het RAG-tijdperk loopt ten einde voor agentische AI ​​– een nieuwe kennislaag in de compilatiefase is wat daarna komt

4
0
Het RAG-tijdperk loopt ten einde voor agentische AI ​​– een nieuwe kennislaag in de compilatiefase is wat daarna komt

De vectordatabasecategorie ondergaat een verschuiving als reactie op de behoeften van agentische AI.

De Retrieval-Augmented Generation (RAG)-naar-vector-databasepijplijn volstaat niet meer; agentic AI vereist een andere aanpak die context omvat. VentureBeat’s Q1 2026-puls onderzoek onderstreept deze trend: elke standalone vectordatabase verliest adoptieaandeel, terwijl de intentie voor hybride opvraging is verdrievoudigd tot 33,3%, de snelst groeiende strategische positie in de dataset.

Vectordatabasepionier Pinecone erkent dit en draait om te voldoen aan de specifieke behoeften van agentische AI.

Het bedrijf heeft vandaag Nexus aangekondigd, dat het positioneert als een kennismotor in plaats van als een verbetering op het gebied van het ophalen. Nexus introduceert een contextcompiler die onbewerkte bedrijfsgegevens omzet in persistente, taakspecifieke kennisartefacten voordat agenten deze bevragen, en een samenstelbare retriever die deze artefacten bedient met citaten op veldniveau en deterministische conflictoplossing.

Naast Nexus brengt Pinecone KnowQL uit, een declaratieve querytaal die agenten een vocabulaire geeft om de uitvoervorm, betrouwbaarheidsvereisten en latentiebudgetten te specificeren. In Pinecone’s eigen interne benchmark werd een financiële analysetaak die voorheen 2,8 miljoen tokens kostte, door Nexus voltooid met slechts 4.000. Dit vertegenwoordigt een reductie van 98%, hoewel het bedrijf dit nog niet heeft gevalideerd bij productie-implementaties bij klanten. Nexus heeft vanaf vandaag vroege toegang.

“RAG is gebouwd voor menselijke gebruikers”, vertelde Ash Ashutosh, CEO van Pinecone, aan VentureBeat. “Nexus is gebouwd voor agentische gebruikers, omdat hun taal heel anders is. De reacties die ze verwachten zijn heel anders. De taak die een agent moet doen, is heel anders dan wat een chatbot hoort te doen.”

Waarom RAG nooit is gebouwd voor wat agenten eigenlijk doen

RAG omvat één vraag, één antwoord en een persoon die betrokken is bij het interpreteren van het resultaat. Maar agenten werken anders. Ze krijgen taken toegewezen, geen vragen – en om deze te voltooien, moet je context uit meerdere bronnen verzamelen, conflicten oplossen, bijhouden wat al is opgehaald en beslissen wat je vervolgens wilt doorzoeken.

Het onderscheid is belangrijk. Een RAG-pijplijn haalt documenten op en geeft ze tijdens de conclusie aan een model. Elke agentsessie begint koud, zonder enig inzicht in de bedrijfsdata: welke tabellen betrekking hebben op welke, welke bronnen gezaghebbend zijn voor welke vragen, en welke formaten een agent verderop in de keten daadwerkelijk kan gebruiken. Elke sessie herontdekt dat vanaf nul.

“De kern van al dit gedoe was een heel eenvoudig probleem”, zei Ashutosh. “Je vraagt ​​agenten (machines) om te werken aan systemen en gegevens die voor mensen zijn ontworpen.”

Pinecone schat dat 85% van de rekeninspanningen van agenten naar de herontdekkingscyclus gaat in plaats van naar het voltooien van taken. De stroomafwaartse effecten zijn samengesteld: onvoorspelbare latentie, op hol geslagen tokenkosten en niet-deterministische resultaten. Voer dezelfde taak twee keer uit op basis van dezelfde gegevens, en een agent retourneert mogelijk verschillende antwoorden zonder dat wordt vastgelegd welke bronnen beide resultaten hebben opgeleverd. Voor ondernemingen waar controleerbaarheid een nalevingsvereiste is, is dat een structurele diskwalificatie en geen afstemmingsprobleem.

Wat Nexus is en hoe het werkt

Nexus verplaatst het redeneerwerk van deductietijd naar de compilatietijd. In een conventionele RAG-pijplijn vindt de redenering die nodig is om kennis te interpreteren, te contextualiseren en te structureren plaats op het moment dat een agent een vraag stelt: elke sessie, elke keer, waarbij tokens worden verbrand op werk dat van tevoren had kunnen worden gedaan. Maar Nexus redeneert slechts één keer tijdens een compilatiefase die vóór elke agentquery wordt uitgevoerd, en slaat het resultaat vervolgens op als een herbruikbaar kennisartefact. De agent ontvangt gestructureerde, taakgerichte context in plaats van ruwe documenten die hij direct kan interpreteren.

De architectuur die Pinecone verzendt bestaat uit drie afzonderlijke componenten, die elk een andere laag van het probleem met het ophalen van agenten aanpakken.

  1. Context-compiler. Nexus gebruikt onbewerkte brongegevens en een taakspecificatie en bouwt gespecialiseerde kennisartefacten: gestructureerde, taakgeoptimaliseerde representaties die agenten rechtstreeks kunnen gebruiken zonder interpretatieoverhead. Hetzelfde onderliggende datadomein produceert verschillende artefacten voor verschillende agenten: een verkoopagent krijgt dealcontext gesynthetiseerd uit CRM en oproeprecords, een financieel agent krijgt inkomstencontext die contracten koppelt aan factureringsschema’s. Artefacten zijn persistent en worden hergebruikt in agentsessies, en worden niet opnieuw gegenereerd tijdens de inferentie.

  2. Samenstelbare retriever. Gecompileerde artefacten worden tijdens de zoekopdracht weergegeven met getypte velden, citaten per veld met betrouwbaarheidsniveaus en deterministische conflictoplossing. De uitvoer wordt zodanig vormgegeven dat deze overeenkomt met het opgegeven formaat van de agent en niet wordt geretourneerd als onbewerkte tekst, zodat de agent deze opnieuw kan parseren.

  3. WeetQL. Pinecone beschrijft dit als de eerste declaratieve zoektaal die is ontworpen voor agenten in plaats van voor mensen. Zes primitieven – intentie, filter, herkomst, uitvoervorm, vertrouwen en budget – stellen agenten in staat gestructureerde antwoorden, brongronding en latentie-enveloppen in één enkele interface te specificeren. Ashutosh vergeleek de structurele leemte die KnowQL opvult met wat SQL deed voor relationele databases: voordat er een standaardinterface bestond, bouwde elke applicatie zijn eigen gegevenstoegangslaag helemaal opnieuw op.

De relatie tussen Nexus en de onderliggende vectordatabase van Pinecone is additief. De contextcompiler produceert kennisartefacten die worden geïndexeerd en opgeslagen in de vectordatabase; de compilatielaag vormt en dient kennis; de vectorlaag zorgt voor opslag, ophaalsnelheid en schaal.

“De vectoren worden nog steeds opgeslagen en beheerd door de Pinecone-vectordatabase”, zei Ashutosh.

Wat analisten maken van de architectonische claim

Het stroomopwaarts verplaatsen van de redenering van gevolgtrekking naar een compilatiefase is geen nieuw concept; ontologieën, datacatalogi en semantische lagen streven al jaren naar versies ervan. Wat is veranderd, is de mogelijkheid om dit op schaal te doen zonder speciale technische teams voor elk domein. Dat is het specifieke argument dat Nexus aanvoert, en het is waar analisten de echte vooruitgang zien.

Stephanie Walter, praktijkleider voor AI-stack bij HyperFRAME Research, vertelde VentureBeat dat Nexus richtinggevend belangrijk is omdat het kenniswerk verschuift van runtime-chaos naar een vooraf gecompileerde structuur. Ze benadrukte echter dat het een evolutie van de RAG-architectuur is, en geen volledige heruitvinding.

“De echte innovatie is niet het idee zelf, maar de productie van kenniscompilatie als een eersteklas infrastructuurlaag”, zei Walter. “Als Pinecone dat op betrouwbare wijze kan operationeel maken, wordt het een betekenisvolle infrastructuur, en niet zomaar een RAG-tuningtruc.”

Het technische mechanisme achter deze bewering is wat Gartner-onderscheidende VP-analist Arun Chandrasekaran het betekenisvolle architecturale onderscheid noemde. “In tegenstelling tot traditionele RAG, die afhankelijk is van puur semantisch zoeken tijdens runtime, integreert architecturale compilatie structurele logica in de metadatalaag, wat de responstijd kan vergroten en betere redeneringen kan opleveren”, vertelde Chandrasekaran aan VentureBeat. “Dit is een belangrijke sprong van eenvoudig ophalen naar verbeterd redeneren, waardoor agenten door bedrijfsschema’s kunnen navigeren en een beter geheugen kunnen verwerven voor contextualisatie.”

Het competitieve landschap

Meerdere leveranciers erkennen dit dat een vectordatabase en traditionele RAG niet voldoende zijn voor agentische AI.

Microsoft heeft zijn FabricIQ-technologie om semantische context te bieden voor agentische AI. Google heeft dit onlangs aangekondigd Agentische gegevenswolk als een aanpak om dezelfde problemen op te lossen. Er zijn ook zelfstandige contextuele geheugentechnologieën, zoals achteraf geziendie nog een andere optie voor gebruikers bieden.

Maar eenanalisten zijn minder gefocust op de functievergelijking dan op wat kopers eigenlijk zouden moeten evalueren. “De agentische AI-stack valt uiteen in tientallen functies, maar zakelijke kopers moeten niet op zoek gaan naar functies”, zegt Walter. “Ze moeten controle nastreven: kostenbeheersing, governancecontrole en veiligheidscontrole.”

De meeste mislukkingen van ondernemingen op het gebied van kunstmatige AI zullen, zo betoogde zij, niet van technische aard zijn. Ze zullen operationeel zijn – gekoppeld aan kostenoverschrijdingen, bestuurslacunes en veiligheidsdiscipline.

De mogelijkhedenbalk gaat verder dan de ophaalsnelheid. “De echte onderscheidende factor is deterministische basis”, zei Chandrasekaran, wijzend op technieken zoals kennisgrafieken die ervoor zorgen dat agenten structurele relaties binnen bedrijfsgegevens begrijpen in plaats van overeenkomsten op oppervlakkig niveau terug te geven. Interoperabiliteit is een daaraan gerelateerde overweging: standaarden zoals model context protocol (MCP) zijn van belang voor het verbinden van agenten met oudere gegevensbronnen zonder nieuwe afhankelijkheden te creëren.

Wat dit betekent voor bedrijven

RAG en zelfstandige vectordatabases zijn gebouwd voor een ander tijdperk. Agentische werklasten leggen de grenzen van beide bloot.

Het probleem van de ophaalkosten is van architectonische aard

Teams die complexe agentic-workloads uitvoeren op conventionele RAG-pijplijnen, verbranden tokens tijdens deductietijd voor werk dat van tevoren kan worden gedaan: het interpreteren, contextualiseren en structureren van kennis, elke sessie, helemaal opnieuw. Dat is een ontwerpprobleem. Het afstemmen van de ophaallaag zal het probleem niet oplossen. De vraag voor data-engineeringteams is of hun huidige stack structureel in staat is om kennis vooraf te compileren voor specifieke agenttaken, of dat deze is gebouwd voor een menselijke gebruiker die die mogelijkheid nooit nodig heeft gehad.

Governance is wat een pilot scheidt van een productie-implementatie

De mogelijkheden die bepalen of agentische AI ​​wordt goedgekeurd voor zakelijk gebruik zijn geen prestatiestatistieken.

“De echte waardepropositie voor ondernemingen is niet alleen een snellere vindbaarheid, maar ook beheerste kennispijplijnen”, aldus Walter. “Dat zijn de mogelijkheden die agent-AI van een experiment veranderen in iets dat financiële en risicoteams daadwerkelijk zullen goedkeuren.”

De begroting is verschoven

Uit de Pulse-gegevens van VentureBeat over het eerste kwartaal blijkt dat de investeringen in terughaaloptimalisatie in maart zijn gestegen tot 28,9%, waarmee ze voor het eerst in het kwartaal de evaluatie-uitgaven hebben ingehaald. Bedrijven zijn klaar met het meten van hun ophaalproblemen. Ze besteden nu geld om ze te repareren.

“De toekomst van agent-AI zal niet worden bepaald door wie het langste contextvenster heeft”, zei Walter. “Er zal worden besloten wie vertrouwde kennis op schaal kan operationeel maken zonder de kosten of het bestuur op te blazen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in