Home Nieuws Waarom de nieuwe Interactions API van Google zo belangrijk is voor AI-ontwikkelaars

Waarom de nieuwe Interactions API van Google zo belangrijk is voor AI-ontwikkelaars

1
0
Waarom de nieuwe Interactions API van Google zo belangrijk is voor AI-ontwikkelaars

De afgelopen twee jaar was de fundamentele eenheid van generatieve AI-ontwikkeling de ‘voltooiing’.

U stuurt een sms-prompt naar een model, het stuurt een tekst terug en de transactie eindigt. Als je het gesprek wilt voortzetten, moet je de hele geschiedenis opnieuw naar het model sturen. Deze ‘staatloze’ architectuur – belichaamd door de nalatenschap van Google generateContent eindpunt – was perfect voor eenvoudige chatbots. Maar nu ontwikkelaars steeds meer richting autonome agenten gaan die tools gebruiken, complexe toestanden in stand houden en over een lange horizon ‘denken’, is dat staatloze model een duidelijk knelpunt geworden.

Vorige week heeft Google DeepMind deze infrastructuurkloof eindelijk aangepakt met de publieke bèta-lancering van de Interactions API (/interactions).

Terwijl OpenAI begon deze verschuiving in maart 2025 met zijn Responses APIDe inzending van Google duidt op zijn eigen inspanningen om de state-of-the-art te bevorderen. De Interactions API is niet alleen een hulpmiddel voor statusbeheer; het is een uniforme interface die is ontworpen om LLM’s minder als tekstgeneratoren en meer als externe besturingssystemen te behandelen.

Het ‘Remote Compute’-model

De kerninnovatie van de Interactions API is de introductie van de status aan de serverzijde als standaardgedrag.

Voorheen moest een ontwikkelaar die een complexe agent bouwde handmatig een groeiende JSON-lijst beheren van elke “gebruiker” en “model”, waarbij hij bij elk verzoek megabytes aan geschiedenis heen en weer stuurde. Met de nieuwe API geven ontwikkelaars eenvoudigweg een previous_interaction_id. De infrastructuur van Google bewaart de gespreksgeschiedenis, de output van de tools en de ‘denkprocessen’.

“Modellen worden systemen en kunnen na verloop van tijd zelfs zelf agenten worden”, schreven Ali Çevik en Philipp Schmid van DeepMind in een officieel bedrijf. blogpost op het nieuwe paradigma. ‘Proberen deze capaciteiten in te dwingen generateContent zou hebben geresulteerd in een te complexe en kwetsbare API.”

Deze verschuiving maakt Achtergronduitvoering mogelijk, een cruciaal kenmerk voor het agententijdperk. Complexe workflows, zoals een uur surfen op internet om een ​​rapport samen te stellen, veroorzaken vaak HTTP-time-outs in standaard API’s. Met de Interactions API kunnen ontwikkelaars een agent activeren background=true, verbreek de verbinding en vraag later naar het resultaat. Het verandert de API effectief in een taakwachtrij voor intelligentie.

Native “Deep Research” en MCP-ondersteuning

Google gebruikt deze nieuwe infrastructuur om zijn eerste ingebouwde agent te leveren: Gemini Deep Research.

Bereikbaar via hetzelfde /interactions eindpunt is deze agent in staat om ‘onderzoekstaken over de lange horizon’ uit te voeren. In tegenstelling tot een standaardmodel dat het volgende token voorspelt op basis van uw prompt, voert de Deep Research-agent een lus van zoekopdrachten, lezen en synthese uit.

Cruciaal is dat Google ook het open ecosysteem omarmt door native ondersteuning toe te voegen voor het Model Context Protocol (MCP). Hierdoor kunnen Gemini-modellen rechtstreeks externe tools aanroepen die op externe servers worden gehost, zoals een weerdienst of een database, zonder dat de ontwikkelaar aangepaste lijmcode hoeft te schrijven om de toolaanroepen te parseren.

Het landschap: Google sluit zich aan bij OpenAI in het ‘Stateful’-tijdperk

Google is aantoonbaar bezig met een inhaalslag, maar met een duidelijke filosofische twist. OpenAI stapte negen maanden geleden uit de staatloosheid met de lancering van de Responses API in maart 2025.

Hoewel beide giganten het probleem van context-bloat oplossen, lopen hun oplossingen uiteen op het gebied van transparantie:

OpenAI (de compressiebenadering): OpenAI’s Responses API introduceerde Compaction, een functie die de gespreksgeschiedenis verkort door de uitvoer van tools en redeneerketens te vervangen door ondoorzichtige ‘gecodeerde compactie-items’. Dit geeft prioriteit aan token-efficiëntie, maar creëert een ‘black box’ waarin de eerdere redenering van het model voor de ontwikkelaar verborgen blijft.

Google (de gehoste aanpak): De Interactions API van Google houdt de volledige geschiedenis beschikbaar en kan worden samengesteld. Met het datamodel kunnen ontwikkelaars “interleaved berichten debuggen, manipuleren, streamen en redeneren”. Het geeft prioriteit aan inspecteerbaarheid boven compressie.

Ondersteunde modellen en beschikbaarheid

De Interactions API bevindt zich momenteel in de openbare bèta (documentatie hier) en is direct beschikbaar via Google AI Studio. Het ondersteunt het volledige spectrum van de nieuwste generatie modellen van Google, waardoor ontwikkelaars de juiste modelgrootte kunnen afstemmen op hun specifieke taak:

  • Tweeling 3.0: Gemini 3 Pro-voorbeeld.

  • Tweeling 2.5: Flash, Flash-lite en Pro.

  • Agenten: Preview van diepgaand onderzoek (deep-research-pro-preview-12-2025).

Commercieel gezien kan de API worden geïntegreerd in de bestaande prijsstructuur van Google: u betaalt standaardtarieven voor invoer- en uitvoertokens op basis van het model dat u selecteert. De waardepropositie verandert echter met het nieuwe beleid voor het bewaren van gegevens. Omdat deze API stateful is, moet Google uw interactiegeschiedenis opslaan om functies zoals impliciete caching en het ophalen van context mogelijk te maken.

De toegang tot deze opslag wordt bepaald door uw niveau. Ontwikkelaars op de Free Tier zijn beperkt tot een bewaarbeleid van één dag, geschikt voor tijdelijke tests, maar onvoldoende voor agentgeheugen op de lange termijn.

Ontwikkelaars op de betaalde laag ontgrendelen een retentiebeleid van 55 dagen. Deze verlengde bewaring is niet alleen bedoeld voor auditing; het verlaagt effectief uw totale eigendomskosten door het maximaliseren van cachehits. Door de geschiedenis bijna twee maanden ‘hot’ op de server te houden, vermijdt u dat u moet betalen voor het opnieuw verwerken van enorme contextvensters voor terugkerende gebruikers, waardoor de betaalde laag aanzienlijk efficiënter wordt voor productieagenten.

Opmerking: aangezien dit een bètaversie is, heeft Google aangegeven dat functies en schema’s onderhevig zijn aan belangrijke wijzigingen.

‘Je hebt interactie met een systeem’

Sam Witteveen, Google Developer Expert in Machine Learning en CEO van Red Dragon AI, ziet deze release als een noodzakelijke evolutie van de ontwikkelaarsstack.

“Als we teruggaan in de geschiedenis… was het hele idee simpel: tekst-in, tekst-uit”, merkte Witteveen op in een technisch overzicht van de release op YouTube. “Maar nu… heb je interactie met een systeem. Een systeem dat meerdere modellen kan gebruiken, meerdere aanroeplussen kan uitvoeren, tools kan gebruiken en code kan uitvoeren op de backend.”

Witteveen benadrukte het onmiddellijke economische voordeel van deze architectuur: impliciete caching. Omdat de gespreksgeschiedenis op de servers van Google staat, hoeven ontwikkelaars niet te betalen voor het herhaaldelijk opnieuw uploaden van dezelfde context. “Je hoeft niet zoveel te betalen voor de tokens die je belt”, legde hij uit.

De release verloopt echter niet zonder wrijving. Witteveen bekritiseerde de huidige implementatie van het citatiesysteem van de Deep Research-agent. Hoewel de agent bronnen levert, worden de geretourneerde URL’s vaak verpakt in interne Google/Vertex AI-omleidingslinks in plaats van onbewerkte, bruikbare URL’s.

“Mijn grootste probleem is dat… deze URL’s, als ik ze opsla en ze in een andere sessie probeer te gebruiken, ze niet zullen werken”, waarschuwde Witteveen. “Als ik een rapport wil maken voor iemand met citaten, wil ik dat hij of zij op de URL’s uit een pdf-bestand kan klikken. Iets als medium.com als citatie (zonder de directe link) is niet erg goed.”

Wat dit betekent voor uw team

Voor Lead AI Engineers die zich richten op snelle implementatie en verfijning van modellen, biedt deze release een directe architectonische oplossing voor het aanhoudende ‘time-out’-probleem: Achtergronduitvoering.

In plaats van complexe asynchrone handlers te bouwen of afzonderlijke taakwachtrijen te beheren voor langlopende redeneringstaken, kunt u deze complexiteit nu rechtstreeks naar Google overbrengen. Dit gemak brengt echter een strategische afweging met zich mee.

Hoewel de nieuwe Deep Research-agent de snelle inzet van geavanceerde onderzoeksmogelijkheden mogelijk maakt, functioneert deze als een “black box” vergeleken met op maat gemaakte LangChain- of LangGraph-stromen. Ingenieurs moeten een prototype maken van een ‘langzaam denken’-functie met behulp van de background=true parameter om te evalueren of de snelheid van implementatie opweegt tegen het verlies van fijnmazige controle over de onderzoekscyclus.

Senior ingenieurs die de AI-orkestratie en het budget beheren, zullen merken dat de verschuiving naar de server-side-status via previous_interaction_id ontgrendelt impliciete caching, een grote overwinning voor zowel de kosten als de latentiestatistieken.

Door te verwijzen naar de geschiedenis die is opgeslagen op de servers van Google, vermijdt u automatisch de tokenkosten die gepaard gaan met het opnieuw uploaden van enorme contextvensters, waardoor budgetbeperkingen direct worden aangepakt terwijl de hoge prestaties behouden blijven.

De uitdaging ligt hier in de supply chain; De integratie van Remote MCP (Model Context Protocol) betekent dat uw agenten rechtstreeks verbinding maken met externe tools, waardoor u rigoureus moet valideren dat deze externe services veilig en geverifieerd zijn. Het is tijd om uw huidige tokenuitgaven voor het opnieuw verzenden van de gespreksgeschiedenis te controleren. Als deze hoog zijn, kan het geven van prioriteit aan een migratie naar de stateful Interactions API aanzienlijke besparingen opleveren.

Voor Senior Data Engineers biedt de Interactions API een robuuster datamodel dan ruwe tekstlogboeken. Dankzij het gestructureerde schema kunnen complexe geschiedenissen worden opgespoord en beredeneerd, waardoor de algehele gegevensintegriteit in uw pijplijnen wordt verbeterd. U moet echter waakzaam blijven met betrekking tot de datakwaliteit, met name de kwestie die expert Sam Witteveen aanstipt met betrekking tot citaties.

De Deep Research-agent retourneert momenteel ‘verpakte’ URL’s die kunnen verlopen of kapot gaan, in plaats van onbewerkte bronlinks. Als uw pijplijnen afhankelijk zijn van het schrapen of archiveren van deze bronnen, moet u mogelijk een opschoonstap bouwen om de bruikbare URL’s te extraheren. U moet ook de gestructureerde uitvoermogelijkheden testen (response_format) om te zien of ze de kwetsbare regex-parsering in uw huidige ETL-pijplijnen kunnen vervangen.

Ten slotte biedt de directeur van IT-beveiliging het verplaatsen van de status naar de gecentraliseerde servers van Google een paradox. Het kan de beveiliging verbeteren door API-sleutels en gespreksgeschiedenis buiten de clientapparaten te houden, maar het introduceert een nieuw risico op datalocatie. De kritische controle hier is het gegevensbewaarbeleid van Google: terwijl de Free Tier gegevens slechts één dag bewaart, bewaart de Paid Tier de interactiegeschiedenis gedurende 55 dagen.

Dit staat in contrast met OpenAI’s “Zero Data Retention” (ZDR) bedrijfsopties. U moet ervoor zorgen dat het opslaan van gevoelige gespreksgeschiedenis gedurende bijna twee maanden in overeenstemming is met uw interne governance. Als dit in strijd is met uw beleid, moet u oproepen configureren met store=falsehoewel dit de stateful functies (en de kostenvoordelen) zal uitschakelen die deze nieuwe API waardevol maken.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in