Home Nieuws De moderne datastack is gebouwd voor mensen die vragen stellen. Google heeft...

De moderne datastack is gebouwd voor mensen die vragen stellen. Google heeft het zojuist opnieuw opgebouwd zodat agenten actie kunnen ondernemen.

4
0
De moderne datastack is gebouwd voor mensen die vragen stellen. Google heeft het zojuist opnieuw opgebouwd zodat agenten actie kunnen ondernemen.

Enterprise-datastacks zijn gebouwd voor mensen die geplande queries uitvoeren. Nu AI-agenten 24 uur per dag autonoom namens bedrijven optreden, stort die architectuur ineen en haasten leveranciers zich om deze opnieuw op te bouwen. Het antwoord van Google, woensdag aangekondigd op Cloud Next, is de Agentic Data Cloud.

De architectuur kent drie pijlers:

  • Kenniscatalogus. Automatiseert het beheer van semantische metadata, waarbij bedrijfslogica wordt afgeleid uit querylogboeken zonder handmatige tussenkomst van de datasteward

  • Huisje aan het meer in de wolken. Laat BigQuery Iceberg-tabellen opvragen op AWS S3 via een privénetwerk, zonder kosten voor uitgaand verkeer

  • Gegevensagentkit. Voegt MCP-tools toe aan VS Code, Claude Code en Gemini CLI, zodat data-ingenieurs resultaten kunnen beschrijven in plaats van pipelines te schrijven

“De data-architectuur moet nu veranderen”, zegt Andi Gutmans, VP en GM van Data Cloud bij Google Cloud, tegen VentureBeat. “We gaan van menselijke schaal naar agentenschaal.”

Van systeem van intelligentie naar systeem van actie

Het uitgangspunt achter Agentic Data Cloud is dat ondernemingen overstappen van activiteiten op menselijke schaal naar activiteiten op agentniveau.

Historisch gezien zijn dataplatforms geoptimaliseerd voor rapportage, dashboarding en bepaalde prognoses – wat Google typeert als ‘reactieve intelligentie’. In dat model interpreteren mensen gegevens en beslissen ze wat ze moeten doen.

Nu van AI-agenten steeds vaker wordt verwacht dat ze rechtstreeks namens het bedrijf actie ondernemen, betoogt Gutmans dat dataplatforms moeten evolueren naar actiesystemen. “We moeten ervoor zorgen dat alle bedrijfsgegevens kunnen worden geactiveerd met AI, dat zowel gestructureerde als ongestructureerde gegevens omvat”, aldus Gutmans. “We moeten ervoor zorgen dat er het juiste niveau van vertrouwen is, wat ook betekent dat het niet alleen gaat om toegang krijgen tot de gegevens, maar om het echt begrijpen van de gegevens.”

De Kenniscatalogus is het antwoord van Google op dat probleem. Het is een evolutie van Dataplex, het bestaande data governance-product van Google, met een wezenlijk andere architectuur eronder. Waar traditionele datacatalogi datastewards vereisten om handmatig tabellen te labelen, zakelijke termen te definiëren en woordenlijsten op te bouwen, automatiseert de Knowledge Catalog dat proces met behulp van agenten.

De praktische implicatie voor data-engineeringteams is dat de kenniscatalogus schaalbaar is naar het volledige datadomein, en niet alleen naar de samengestelde subset die een klein team van datastewards met de hand kan onderhouden. De catalogus omvat native BigQuery, Spanner, AlloyDB en Cloud SQL en werkt samen met catalogi van derden, waaronder Collibra, Atlan en Datahub. Zero-copy federatie breidt de semantische context uit van SaaS-applicaties, waaronder SAP, Salesforce Data360, ServiceNow en Workday, zonder dat gegevensverplaatsing nodig is.

Het Lakehouse van Google gaat cross-cloud

Google heeft een data lakehouse laten bellen Groot Meer sinds 2022. Aanvankelijk was het beperkt tot alleen Google-gegevens, maar de laatste jaren beschikt het over een aantal beperkte federatiemogelijkheden waardoor bedrijven gegevens kunnen opvragen die op andere locaties zijn gevonden.

Gutmans legde uit dat de vorige federatie werkte via query-API’s, waardoor de functies en optimalisaties die BigQuery op externe gegevens kon toepassen, werden beperkt. De nieuwe aanpak is op opslag gebaseerd delen via het open Apache Iceberg-formaat. Dat betekent dat het volgens hem geen verschil maakt of de gegevens zich in Amazon S3 of in Google Cloud bevinden. “Dit betekent echt dat we al het goede en alle AI-mogelijkheden naar die datasets van derden kunnen brengen”, zei hij.

Het praktische resultaat is dat BigQuery Iceberg-tabellen op Amazon S3 kan bevragen via Google’s Cross-Cloud Interconnect, een speciale privé-netwerklaag, zonder uitgaande kosten en de prijs-prestatieverhouding die volgens Google vergelijkbaar is met native AWS-magazijnen. Alle BigQuery AI-functies draaien zonder aanpassingen op die cross-cloudgegevens. Bidirectionele federatie in preview breidt zich uit naar Databricks Unity Catalog op S3, Snowflake Polaris en de AWS Glue Data Catalog met behulp van de open Iceberg REST Catalog-standaard.

Van het schrijven van pipelines tot het beschrijven van uitkomsten

De Kenniscatalogus en het cross-cloud lakehouse lossen de problemen met gegevenstoegang en context op. De derde pijler gaat over wat er gebeurt als een data-ingenieur daadwerkelijk aan de slag gaat om er iets mee te bouwen.

De Data Agent Kit wordt geleverd als een draagbare set vaardigheden, MCP-tools en IDE-extensies die beschikbaar zijn in VS Code, Claude Code, Gemini CLI en Codex. Het introduceert geen nieuwe interface.

De architecturale verschuiving die het mogelijk maakt, is een verschuiving van wat Gutmans een ‘prescriptieve copilootervaring’ noemde naar intent-driven engineering. In plaats van een Spark-pijplijn te schrijven om gegevens van bron A naar bestemming B te verplaatsen, beschrijft een data-ingenieur het resultaat (een opgeschoonde dataset die klaar is voor modeltraining, een transformatie die een governanceregel afdwingt) en selecteert de agent of hij BigQuery, de Lightning Engine voor Apache Spark of Spanner wil gebruiken om deze uit te voeren, en genereert vervolgens productieklare code.

“Klanten zijn het beu om hun eigen pijpleidingen aan te leggen”, zegt Gutmans. “Ze zijn echt meer in de review-modus dan in de modus voor het schrijven van code.”

Waar Google en zijn rivalen uiteenlopen

Het uitgangspunt dat agenten semantische context nodig hebben, en niet alleen datatoegang, wordt door de hele markt gedeeld.

Databricks beschikt over Unity Catalog, dat beheer en een semantische laag in het hele Lakehouse biedt. Snowflake heeft Cortex, zijn AI- en semantische laagaanbod. Microsoft-stof omvat een semantische modellaag die is gebouwd voor business intelligence en, in toenemende mate, agent-gronding.

Het geschil gaat niet over de vraag of semantiek er toe doet; iedereen is het erover eens dat dit wel het geval is. Het geschil gaat over wie ze bouwt en onderhoudt.

“Ons doel is gewoon om alle semantiek te krijgen die je kunt krijgen”, legde hij uit, waarbij hij opmerkte dat Google zal samenwerken met semantische modellen van derden in plaats van van klanten te eisen dat ze opnieuw beginnen.

Google positioneert openheid ook als een differentiator, met bidirectionele federatie in Databricks Unity Catalog en Snowflake Polaris via de open Iceberg REST Catalog-standaard.

Wat dit betekent voor bedrijven

Het argument van Google – en dat wordt weerspiegeld in de markt voor data-infrastructuur – is dat bedrijven op drie fronten achterlopen:

Semantische context wordt infrastructuur. Als uw datacatalogus nog steeds handmatig wordt samengesteld, zal deze niet worden geschaald naar de werklast van agenten. Gutmans betoogt dat de kloof alleen maar groter zal worden naarmate de queryvolumes van agenten toenemen.

Kosten voor uitgaand verkeer tussen de cloud zijn een verborgen belasting op agentische AI. Op opslag gebaseerde federatie via open Iceberg-standaarden komt naar voren als het architecturale antwoord binnen Google, Databricks en Snowflake. Bedrijven die vastzitten aan eigen federatiebenaderingen zouden deze kosten aan een stresstest moeten onderwerpen bij queryvolumes op agentniveau.

Gutmans stelt dat het tijdperk van het schrijven van pijplijnen ten einde is. Data-ingenieurs die nu richting resultaatgerichte orkestratie gaan, zullen een aanzienlijke voorsprong hebben.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in