Home Nieuws Nvidia BlueField-4 STX voegt een contextgeheugenlaag toe aan de opslag om de...

Nvidia BlueField-4 STX voegt een contextgeheugenlaag toe aan de opslag om de doorvoerkloof van agentic AI te dichten

3
0
Nvidia BlueField-4 STX voegt een contextgeheugenlaag toe aan de opslag om de doorvoerkloof van agentic AI te dichten

Wanneer een AI-agent halverwege de taak context verliest omdat traditionele opslag geen gelijke tred kan houden met gevolgtrekkingen, is dat geen modelprobleem; het is een opslagprobleem. Op GTC 2026 kondigde Nvidia BlueField-4 STX aan, een modulaire referentiearchitectuur die een speciale contextgeheugenlaag tussen GPU’s en traditionele opslag invoegt, en claimt 5x de tokendoorvoer, 4x de energie-efficiëntie en 2x de data-opnamesnelheid van conventionele CPU-gebaseerde opslag.

De bottleneck-STX-doelen zijn cachegegevens met sleutelwaarden. KV-cache is het opgeslagen record van wat een model al heeft verwerkt: de tussentijdse berekeningen die een LLM opslaat, zodat deze de aandacht niet bij elke gevolgtrekkingsstap over de hele context opnieuw hoeft te berekenen. Het is wat een agent in staat stelt een samenhangend werkgeheugen te behouden tijdens sessies, tooloproepen en redeneerstappen. Naarmate de contextvensters groter worden en agenten meer stappen zetten, groeit de cache mee. Wanneer het een traditioneel opslagpad moet doorlopen om terug te keren naar de GPU, wordt de gevolgtrekking langzamer en daalt het GPU-gebruik.

STX is geen product dat Nvidia rechtstreeks verkoopt. Het is een referentiearchitectuur die het bedrijf distribueert naar het ecosysteem van zijn opslagpartners, zodat leveranciers er een AI-native infrastructuur omheen kunnen bouwen.

STX plaatst een contextgeheugenlaag tussen GPU en schijf

De architectuur is gebouwd rond een nieuwe, voor opslag geoptimaliseerde BlueField-4-processor die Nvidia’s Vera CPU combineert met de ConnectX-9 SuperNIC. Het draait op Spectrum-X Ethernet-netwerken en is programmeerbaar via Nvidia’s DOCA-softwareplatform.

De eerste implementatie op rackschaal is het Nvidia CMX contextgeheugenopslagplatform. CMX breidt het GPU-geheugen uit met een krachtige contextlaag die speciaal is ontworpen voor het opslaan en ophalen van KV-cachegegevens die zijn gegenereerd door grote taalmodellen tijdens inferentie. Het toegankelijk houden van die cache zonder een heen- en terugreis door algemene opslag te forceren, is waar CMX voor is ontworpen.

“Traditionele datacenters bieden opslag met hoge capaciteit voor algemene doeleinden, maar missen over het algemeen de responsiviteit die nodig is voor interactie met AI-agents die in veel stappen, tools en verschillende sessies moeten werken”, zei Ian Buck, Nvidia’s vice-president van hyperscale en high-performance computing in een briefing met pers en analisten.

In antwoord op een vraag van VentureBeat bevestigde Buck dat STX naast de hardware-architectuur ook wordt geleverd met een softwarereferentieplatform. Nvidia breidt DOCA uit met een nieuwe component die in de briefing DOCA Memo wordt genoemd.

“Onze opslagproviders kunnen de programmeerbaarheid van de BlueField-4-processor benutten om de opslag voor de agentische AI-fabriek te optimaliseren”, aldus Buck. “Naast dat we een referentie-rackarchitectuur hebben, bieden we hen ook een referentiesoftwareplatform waarmee ze deze innovaties en optimalisaties voor hun klanten kunnen leveren.”

Opslagpartners die voortbouwen op STX krijgen zowel een hardwarereferentieontwerp als een softwarereferentieplatform: een programmeerbare basis voor contextgeoptimaliseerde opslag.

De partnerlijst van Nvidia omvat gevestigde opslagbedrijven en AI-native cloudproviders

Opslagproviders die mede-ontwerpen van een op STX gebaseerde infrastructuur zijn onder meer Cloudian, DDN, Dell Technologies, Everpure, Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data en WEKA. Productiepartners die op STX gebaseerde systemen bouwen, zijn onder meer AIC, Supermicro en Quanta Cloud Technology.

Aan de cloud- en AI-kant hebben CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure en Vultr zich allemaal gecommitteerd aan STX voor contextgeheugenopslag.

Die combinatie van gevestigde bedrijven op het gebied van opslag en AI-native cloudproviders is het signaal dat het bekijken waard is. Nvidia positioneert STX niet als een speciaal product voor hyperscalers. Het positioneert het als de referentiestandaard voor iedereen die een opslaginfrastructuur bouwt die agentische AI-workloads moet bedienen – wat binnen de komende twee tot drie jaar waarschijnlijk de meeste AI-implementaties van ondernemingen zal omvatten die op grote schaal inferentie in meerdere stappen uitvoeren.

Op STX gebaseerde platforms zullen in de tweede helft van 2026 verkrijgbaar zijn bij partners.

IBM laat zien hoe het datalaagprobleem er in productie uitziet

IBM staat aan beide kanten van de STX-aankondiging. Het staat vermeld als een opslagprovider die mede-ontwerpt op STX-gebaseerde infrastructuur, en Nvidia heeft afzonderlijk bevestigd dat het IBM Storage Scale System 6000 – gecertificeerd en gevalideerd op Nvidia DGX-platforms – heeft geselecteerd als de krachtige opslagbasis voor zijn eigen GPU-native analyse-infrastructuur.

IBM kondigde ook een bredere, uitgebreide samenwerking aan met Nvidia op GTC, inclusief GPU-versnelde integratie tussen IBM’s watsonx.data Presto SQL-engine en Nvidia’s cuDF-bibliotheek. Een productie proof of concept met Nestlé gaf cijfers over hoe die versnelling eruit ziet: een gegevensverversingscyclus in de Order-to-Cash datamart van het bedrijf, die 186 landen en 44 tabellen bestrijkt, daalde van 15 minuten naar drie minuten. IBM rapporteerde een kostenbesparing van 83% en een prijs-prestatieverbetering van 30x.

Het resultaat van Nestlé is een gestructureerde analyseworkload. Het demonstreert niet direct de prestatie van agentische inferentie. Maar het maakt het gedeelde argument van IBM en Nvidia concreet: de datalaag is waar de AI-prestaties van ondernemingen momenteel beperkt zijn, en GPU-versnelling levert materiële resultaten op in de productie.

Waarom de opslaglaag een eersteklas infrastructuurbeslissing aan het worden is

STX is een signaal dat de opslaglaag een eersteklas zorg aan het worden is bij de AI-infrastructuurplanning van ondernemingen, en niet een bijzaak bij GPU-aankoop. NAS- en objectopslag voor algemene doeleinden zijn niet ontworpen om KV-cachegegevens te verwerken met vereisten voor gevolglatentie. Op STX gebaseerde systemen van partners als Dell, HPE, NetApp en VAST Data zijn wat Nvidia naar voren brengt als het praktische alternatief, waarbij het DOCA-softwareplatform de programmeerbaarheidslaag biedt om het opslaggedrag af te stemmen op specifieke agentische workloads.

De prestatieclaims – 5x tokendoorvoer, 4x energie-efficiëntie, 2x data-opname – worden vergeleken met traditionele CPU-gebaseerde opslagarchitecturen. Nvidia heeft de exacte basisconfiguratie voor deze vergelijkingen niet gespecificeerd. Voordat deze cijfers de beslissingen over de infrastructuur bepalen, is het de moeite waard om de basislijn vast te stellen.

Platformen worden in de tweede helft van 2026 van partners verwacht. Aangezien de meeste grote opslagleveranciers al mee aan het ontwerpen zijn voor STX, mogen bedrijven die de komende twaalf maanden opslagvernieuwingen voor de AI-infrastructuur evalueren, verwachten dat op STX gebaseerde opties beschikbaar zullen zijn via hun bestaande leveranciersrelaties.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in