Wat is de rol van vectordatabases in de agentische AI-wereld? Dat is een vraag waar organisaties zich de afgelopen maanden mee bezig hebben gehouden. Het verhaal had echt momentum. Terwijl grote taalmodellen werden geschaald naar contextvensters van miljoenen tokens, circuleerde er een geloofwaardig argument onder ondernemingsarchitecten: speciaal gebouwde vectorzoekopdrachten waren een noodoplossing, geen infrastructuur. Het agentische geheugen zou het ophaalprobleem absorberen. Vectordatabases waren een artefact uit het RAG-tijdperk.
Het productiebewijs loopt de andere kant op.
Qdranthet in Berlijn gevestigde open source vectorzoekbedrijf, heeft donderdag een Series B van $ 50 miljoen aangekondigd, twee jaar na een Series A van $ 28 miljoen. De timing is niet toevallig. Het bedrijf levert ook versie 1.17 van zijn platform. Samen weerspiegelen ze een specifiek argument: het terughaalprobleem nam niet af toen agenten arriveerden. Het werd groter en moeilijker.
“Mensen stellen elke paar minuten een paar vragen”, zegt Andre Zayarni, CEO en medeoprichter van Qdrant, tegen VentureBeat. “Agenten voeren honderden of zelfs duizenden vragen per seconde uit, waarbij ze alleen maar informatie verzamelen om beslissingen te kunnen nemen.”
Die verschuiving verandert de infrastructuurvereisten op manieren waarvoor implementaties uit het RAG-tijdperk nooit waren ontworpen.
Waarom agenten een ophaallaag nodig hebben die het geheugen niet kan vervangen
Agenten werken op basis van informatie waarvoor ze nooit zijn opgeleid: bedrijfseigen bedrijfsgegevens, actuele informatie, miljoenen documenten die voortdurend veranderen. Contextvensters beheren de sessiestatus. Ze bieden geen zoekopdrachten met een hoge herinnering aan die gegevens, behouden de kwaliteit van het ophalen wanneer deze verandert, of ondersteunen de vraagvolumes die autonome besluitvorming genereert.
“De meerderheid van de AI-geheugenframeworks die er zijn, gebruiken een soort vectoropslag”, zei Zayarni.
De implicatie is direct: zelfs de tools die als geheugenalternatief zijn gepositioneerd, zijn afhankelijk van de onderliggende ophaalinfrastructuur.
Er komen drie foutmodi naar voren wanneer die herstellaag niet speciaal voor de belasting is gebouwd. Op documentschaal is een gemist resultaat geen latentieprobleem; het is een probleem met de kwaliteit van de beslissing dat zich bij elke ophaalronde in één agentbeurt voordoet. Onder schrijfbelasting neemt de relevantie af omdat nieuw opgenomen gegevens zich in niet-geoptimaliseerde segmenten bevinden voordat de indexering de achterstand inhaalt, waardoor zoekopdrachten over de meest recente gegevens langzamer en minder nauwkeurig worden, juist wanneer actuele informatie er het meest toe doet. Binnen de gedistribueerde infrastructuur zorgt een enkele langzame replica voor latentie bij elke parallelle tooloproep tijdens een agentbeurt – een vertraging die een menselijke gebruiker op zich neemt als ongemak, maar een autonome agent niet.
Qdrant’s 1.17 release pakt elk direct aan. Een relevantiefeedbackquery verbetert de herinnering door de gelijkenisscore bij de volgende ophaalronde aan te passen met behulp van lichtgewicht modelgegenereerde signalen, zonder het inbeddingsmodel opnieuw te trainen. Een vertraagde fan-out-functie ondervraagt een tweede replica wanneer de eerste een configureerbare latentiedrempel overschrijdt. Een nieuwe clusterbrede telemetrie-API vervangt probleemoplossing per knooppunt door één weergave voor het hele cluster.
Waarom Qdrant geen vectordatabase meer wil heten
Bijna elke grote database ondersteunt nu vectoren als gegevenstype – van hyperscalers tot traditionele relationele systemen. Die verschuiving heeft de concurrentievraag veranderd. Het gegevenstype is nu tafelinzetten. Wat gespecialiseerd blijft is de kwaliteit van het ophalen op productieschaal.
Dat onderscheid is de reden waarom Zayarni niet langer wil dat Qdrant een vectordatabase wordt genoemd.
“We bouwen een laag voor het ophalen van informatie voor het AI-tijdperk”, zei hij. “Databases zijn bedoeld voor het opslaan van gebruikersgegevens. Als de kwaliteit van zoekresultaten ertoe doet, heb je een zoekmachine nodig.”
Zijn advies voor beginnende teams: gebruik de vectorondersteuning die al in je stapel zit. De teams die migreren naar speciaal gebouwde ophaalmogelijkheden doen dit wanneer de schaal het probleem dwingt. “We zien elke dag bedrijven naar ons toekomen die zeggen dat ze met Postgres zijn begonnen en dachten dat het goed genoeg was – en dat is het niet.”
De architectuur van Qdrant, geschreven in Rust, geeft het geheugenefficiëntie en prestatiecontrole op laag niveau waar talen op een hoger niveau niet tegen dezelfde kosten aan kunnen tippen. De open source-basis zorgt voor dat voordeel: feedback uit de gemeenschap en acceptatie door ontwikkelaars zorgen ervoor dat een bedrijf op de schaal van Qdrant kan concurreren met leveranciers die over veel grotere technische middelen beschikken. “Zonder dit zouden we helemaal niet zijn waar we nu zijn”, zei Zayarni.
Hoe twee productieteams de grenzen van databases voor algemene doeleinden ontdekten
De bedrijven die productie-AI-systemen op Qdrant bouwen, voeren vanuit verschillende richtingen hetzelfde argument aan: agenten hebben een ophaallaag nodig, en conversatie- of contextueel geheugen is daar geen vervanging voor.
GlassDollar helpt bedrijven als Siemens en Mahle bij het evalueren van startups. Zoeken is het kernproduct: een gebruiker beschrijft een behoefte in natuurlijke taal en krijgt een gerangschikte shortlist terug uit een corpus van miljoenen bedrijven. De architectuur voert bij elk verzoek zoekopdrachtuitbreiding uit: een enkele prompt waaiert uit in meerdere parallelle zoekopdrachten, waarbij elke kandidaat vanuit een andere invalshoek wordt opgehaald, voordat de resultaten worden gecombineerd en opnieuw worden gerangschikt. Dat is een agentisch ophaalpatroon, geen RAG-patroon, en er is een speciaal gebouwde zoekinfrastructuur voor nodig om dit op volume te ondersteunen.
Het bedrijf migreerde van Elasticsearch terwijl het opschaalde naar 10 miljoen geïndexeerde documenten. Na de overstap naar Qdrant verlaagde het de infrastructuurkosten met grofweg 40%, liet het een op trefwoorden gebaseerde compensatielaag vallen die het had gehandhaafd om de leemten in de relevantie van Elasticsearch te compenseren, en zag het een drie keer zo grote gebruikersbetrokkenheid.
“We meten succes aan de hand van de herinnering”, vertelde Kamen Kanev, hoofd product van GlassDollar, aan VentureBeat. “Als de beste bedrijven niet in de resultaten staan, doet niets anders ertoe. De gebruiker verliest het vertrouwen.”
Agentisch geheugen en uitgebreide contextvensters zijn ook niet voldoende om de werklast op te vangen die GlassDollar nodig heeft.
“Dat is een infrastructuurprobleem, geen taak voor het beheer van de staat”, zei Kanev. “Het is niet iets dat je oplost door een contextvenster uit te breiden.”
Een andere Qdrant-gebruiker wel &AIdat infrastructuur opbouwt voor octrooigeschillen. De AI-agent Andy voert semantische zoekopdrachten uit in honderden miljoenen documenten verspreid over tientallen jaren en in meerdere rechtsgebieden. Octrooigemachtigden zullen niet handelen op basis van door AI gegenereerde juridische teksten, wat betekent dat elk resultaat dat de agent naar voren brengt, gebaseerd moet zijn op een echt document.
“Onze hele architectuur is ontworpen om het risico op hallucinaties te minimaliseren door het ophalen van de kern primitief te maken, en niet het genereren”, vertelde Herbie Turner, oprichter en CTO van &AI, aan VentureBeat.
Bij &AI zijn de agentlaag en de ophaallaag qua ontwerp verschillend.
“Andy, onze patentagent, is bovenop Qdrant gebouwd”, aldus Turner. “De agent is de interface. De vectordatabase is de grondwaarheid.”
Drie signalen dat het tijd is om af te stappen van je huidige opstelling
Het praktische uitgangspunt: gebruik de vectormogelijkheden die al in uw stapel zitten. De evaluatievraag is niet of je vectorzoekopdrachten moet toevoegen, maar wanneer je huidige configuratie niet meer adequaat is. Drie signalen markeren dit punt: de kwaliteit van het ophalen is direct gekoppeld aan de bedrijfsresultaten; vraagpatronen omvatten uitbreiding, herschikking in meerdere fasen of parallelle tooloproepen; of het datavolume reikt tot in de tientallen miljoenen documenten.
Op dat moment verschuift de evaluatie naar operationele vragen: hoeveel inzicht geeft uw huidige configuratie u in wat er gebeurt in een gedistribueerd cluster, en hoeveel prestatieruimte heeft deze als de queryvolumes van agenten toenemen.
“Er is momenteel veel ophef over wat de ophaallaag vervangt”, zei Kanev. “Maar voor iedereen die een product bouwt waarbij de kwaliteit van het ophalen centraal staat, en waarbij het missen van een resultaat reële zakelijke gevolgen heeft, heb je een speciale zoekinfrastructuur nodig.”



