Nvidia heeft maandag een bureau-supercomputer onthuld die krachtig genoeg is om AI-modellen uit te voeren met maximaal een biljoen parameters – ongeveer de schaal van GPT-4 – zonder de cloud aan te raken. De machine, genaamd de DGX-stationverpakt 748 gigabyte coherent geheugen en 20 petaflops aan rekenkracht in een doos die naast een monitor staat, en het is misschien wel het belangrijkste personal computerproduct sinds de oorspronkelijke Mac Pro creatieve professionals ervan overtuigde hun werkstations achter zich te laten.
De aankondiging werd gedaan tijdens de jaarvergadering van het bedrijf GTC-conferentie in San Jose, belandt op een moment waarop de AI-industrie worstelt met een fundamentele spanning: de krachtigste modellen ter wereld vereisen een enorme datacenterinfrastructuur, maar de ontwikkelaars en ondernemingen die op die modellen voortbouwen, willen steeds vaker hun data, hun agenten en hun intellectuele eigendom lokaal houden. Het DGX Station is het antwoord van Nvidia: een machine met zes cijfers die de afstand tussen de grens van AI en het bureau van een enkele ingenieur verkleint.
Wat 20 petaflops op je desktop eigenlijk betekenen
De DGX-station is gebouwd rond het nieuwe GB300 Grace Blackwell Ultra Desktop-superchipdie een 72-core Grace CPU en een Blackwell Ultra GPU combineert via Nvidia’s NVLink-C2C-interconnect. Die link biedt 1,8 terabytes per seconde aan coherente bandbreedte tussen de twee processors – zeven keer de snelheid van PCIe Gen 6 – wat betekent dat de CPU en GPU één enkele, naadloze geheugenpool delen zonder de knelpunten die doorgaans het AI-werk op desktops verlammen.
Twintig petaflops – twintig miljard bewerkingen per seconde – zouden deze machine minder dan tien jaar geleden tot de top van de supercomputers ter wereld hebben gerekend. Het Summit-systeem op Oak Ridge Nationaal Laboratoriumdat in 2018 wereldwijd nummer 1 was, leverde grofweg tien keer die prestatie, maar besloeg een kamer ter grootte van twee basketbalvelden. Nvidia verpakt een aanzienlijk deel van die mogelijkheden in iets dat op een stopcontact kan worden aangesloten.
De 748 GB verenigd geheugen is misschien wel het belangrijkste getal. Modellen met biljoen parameters zijn enorme neurale netwerken die volledig in het geheugen moeten worden geladen om te kunnen functioneren. Zonder voldoende geheugen doet de hoeveelheid verwerkingssnelheid er niet toe; het model past simpelweg niet. Het DGX Station ruimt die lat op, en doet dit met een coherente architectuur die de latentieboetes elimineert die gepaard gaan met het pendelen van gegevens tussen CPU- en GPU-geheugenpools.
Always-on-agents hebben altijd-aan-hardware nodig
Nvidia heeft de DGX-station expliciet voor wat het ziet als de volgende fase van AI: autonome agenten die continu redeneren, plannen, code schrijven en taken uitvoeren – niet alleen systemen die reageren op aanwijzingen. Elke belangrijke aankondiging op Algemene voorwaarden 2026 versterkte deze ‘agentic AI’-these, en het DGX-station is waar deze agenten moeten worden gebouwd en gerund.
De sleutelkoppeling is Nemoklauween nieuwe open-sourcestack die Nvidia maandag ook aankondigde. NemoClaw bundelt Nvidia’s Nemotron open modellen met OpenShelleen veilige runtime die op beleid gebaseerde beveiligings-, netwerk- en privacybeschermingen voor autonome agenten afdwingt. Met één enkele opdracht wordt de hele stapel geïnstalleerd. Jensen Huang, de oprichter en CEO van Nvidia, formuleerde de combinatie in onmiskenbare bewoordingen en noemde Open Klauw – het bredere agentenplatform dat NemoClaw ondersteunt – “het besturingssysteem voor persoonlijke AI” en dit rechtstreeks vergelijkt met Mac en Windows.
Het argument is eenvoudig: cloudinstanties draaien op verzoek op en neer, maar permanente agenten hebben persistente rekenkracht, persistent geheugen en een persistente status nodig. Een machine onder je bureau, die 24/7 draait met lokale data en lokale modellen in een beveiligingssandbox, is architectonisch gezien beter geschikt voor die werklast dan een gehuurde GPU in het datacenter van iemand anders. Het DGX Station kan functioneren als een persoonlijke supercomputer voor een solo-ontwikkelaar of als een gedeeld rekenknooppunt voor teams, en ondersteunt air-gapped configuraties voor geclassificeerde of gereguleerde omgevingen waar gegevens het gebouw nooit kunnen verlaten.
Van bureauprototype tot datacenterproductie zonder herschrijvingen
Een van de slimste aspecten van het ontwerp van het DGX Station is wat Nvidia architecturale continuïteit noemt. Applicaties die op de machine zijn gebouwd, migreren naadloos naar de GB300 NVL72-datacentersystemen van het bedrijf – 72-GPU-racks ontworpen voor hyperscale AI-fabrieken – zonder ook maar één regel code opnieuw te hoeven ontwerpen. Nvidia verkoopt een verticaal geïntegreerde pijplijn: maak een prototype aan uw bureau en schaal vervolgens naar de cloud wanneer u er klaar voor bent.
Dit is van belang omdat de grootste verborgen kosten bij de huidige AI-ontwikkeling niet de rekenkracht zijn, maar de technische tijd die verloren gaat bij het herschrijven van code voor verschillende hardwareconfiguraties. Een model dat is afgestemd op een lokaal GPU-cluster vereist vaak aanzienlijk herwerk om te kunnen implementeren op een cloudinfrastructuur met verschillende geheugenarchitecturen, netwerkstacks en softwareafhankelijkheden. Het DGX Station elimineert die wrijving door dezelfde NVIDIA AI-softwarestack uit te voeren die elke laag van Nvidia’s infrastructuur aandrijft, van de DGX-vonk naar de Vera Rubin NVL72.
Nvidia breidde ook de DGX Spark, het kleinere broertje van het Station, uit met nieuwe clusteringondersteuning. Maximaal vier Spark-eenheden kunnen nu functioneren als een verenigd systeem met vrijwel lineaire prestatieschaling: een ‘desktopdatacenter’ dat op een vergadertafel past zonder rackinfrastructuur of een IT-ticket. Voor teams die middelgrote modellen moeten verfijnen of kleinere agenten moeten ontwikkelen, bieden geclusterde Sparks een geloofwaardig departementaal AI-platform tegen een fractie van de kosten van het station.
De vroege kopers laten zien waar de markt naartoe gaat
Het initiële klantenbestand voor DGX Station brengt de sectoren in kaart waar AI het snelst overgaat van experiment naar dagelijks operationeel hulpmiddel. Snowflake gebruikt het systeem om zijn open-source Arctische trainingsframework lokaal te testen. EPRIhet Electric Power Research Institute, bevordert AI-aangedreven weersvoorspellingen om de betrouwbaarheid van het elektriciteitsnet te versterken. Medivis integreert beeldtaalmodellen in chirurgische workflows. Microsoft Research en Cornell hebben de systemen ingezet voor praktische AI-training op grote schaal.
Systemen kunnen nu worden besteld en worden in de komende maanden verzonden ASUS, Dell-technologieën, GIGABYTE, MSIEn Supermicromet PK later in het jaar aansluiten. Nvidia heeft de prijzen niet bekendgemaakt, maar de GB300-componenten en de historische DGX-prijzen van het bedrijf suggereren een investering van zes cijfers – duur volgens werkstationstandaarden, maar opmerkelijk goedkoop vergeleken met de cloud-GPU-kosten van het op grote schaal uitvoeren van inferentie van biljoen parameters.
De lijst met ondersteunde modellen onderstreept hoe open het AI-ecosysteem is geworden: ontwikkelaars kunnen OpenAI’s uitvoeren en verfijnen gpt-oss-120bGooglen Gemma 3, Qwen3, Mistral Groot 3, DeepSeek V3.2en onder meer Nvidia’s eigen Nemotron-modellen. Het DGX Station is model-agnostisch van opzet – een hardware-Zwitserland in een sector waar modelloyaliteiten elk kwartaal veranderen.
De echte strategie van Nvidia: bezit elke laag van de AI-stack, van baan tot kantoor
De DGX-station kwam niet in een vacuüm terecht. Het was een onderdeel van een uitgebreide reeks AV 2026 aankondigingen die gezamenlijk de ambitie van Nvidia in kaart brengen om AI-computing op letterlijk elke fysieke schaal te leveren.
Bovenaan onthulde Nvidia de Vera Rubin-platform – zeven nieuwe chips in volledige productie – verankerd door het Vera Rubin NVL72-rack, dat 72 Rubin GPU’s van de volgende generatie integreert en tot 10x hogere inferentiedoorvoer per watt claimt in vergelijking met de huidige Blackwell-generatie. De Echte CPUmet 88 aangepaste Olympus-cores, richt zich op de orkestratielaag waar agent-workloads steeds meer om vragen. Aan de andere kant kondigde Nvidia de Vera Rubin Space Module aan voor orbitale datacenters, die 25x meer AI-compute levert voor op de ruimte gebaseerde inferentie dan de H100.
Tussen baan en kantoor onthulde Nvidia partnerschappen van Adobe voor creatieve AI, autofabrikanten als BYD en Nissan voor autonome voertuigen van niveau 4, een coalitie met Mistral AI en zeven andere laboratoria om open frontier-modellen te bouwen, en Dynamo 1.0, een open-source inferentiebesturingssysteem dat al is overgenomen door AWS, Azure, Google Cloud en een reeks AI-native bedrijven, waaronder Cursor en Perplexity.
Het patroon is onmiskenbaar: Nvidia wil het computerplatform zijn – hardware, software en modellen – voor elke AI-workload, waar dan ook. De DGX-station is het stuk dat de kloof tussen de cloud en het individu opvult.
De cloud is niet dood, maar zijn monopolie op serieus AI-werk loopt ten einde
De afgelopen jaren was de standaardaanname op het gebied van AI dat voor serieus werk cloud-GPU-instances nodig zijn – het huren van Nvidia-hardware van AWS, Azuurof Google Cloud. Dat model werkt, maar brengt reële kosten met zich mee: kosten voor uitgaand gegevensverkeer, latentie, beveiligingsrisico’s door het verzenden van eigen gegevens naar de infrastructuur van derden, en het fundamentele verlies van controle dat inherent is aan het huren van de computer van iemand anders.
De DGX-station doodt de cloud niet: Nvidia’s datacenteractiviteiten laten de desktop-inkomsten in de schaduw vallen en versnellen. Maar het creëert een geloofwaardig lokaal alternatief voor een belangrijke en groeiende categorie werkdruk. Het helemaal opnieuw trainen van een grensmodel vereist nog steeds duizenden GPU’s in een magazijn. Een open model met biljoen parameters verfijnen op eigen data? Inferentie uitvoeren voor een interne agent die gevoelige documenten verwerkt? Prototyping maken voordat u geld aan de cloud besteedt? Een machine onder je bureau begint op een rationele keuze te lijken.
Dit is de strategische elegantie van het product: het breidt de adresseerbare markt van Nvidia uit naar persoonlijke AI-infrastructuur en versterkt tegelijkertijd de cloudactiviteiten, omdat alles dat lokaal wordt gebouwd, is ontworpen om op te schalen naar de datacenterplatforms van Nvidia. Het is niet cloud versus bureau. Het is wolk En bureau, en Nvidia levert beide.
Een supercomputer op elk bureau – en een agent die er nooit bovenop slaapt
De bepalende slogan van de pc-revolutie was ‘een computer op elk bureau en in elk huis’. Vier decennia later actualiseert Nvidia het uitgangspunt met een ongemakkelijke escalatie. De DGX-station plaatst echte supercomputerkracht – het soort dat nationale laboratoria aanstuurde – naast een toetsenbord, en NemoClaw plaatst er een autonome AI-agent bovenop die de klok rond draait, code schrijft, tools aanroept en taken voltooit terwijl de eigenaar slaapt.
Of die toekomst opwindend of verontrustend is, hangt af van uw gezichtspunt. Maar één ding staat niet langer ter discussie: de infrastructuur die nodig is om grens-AI te bouwen, uit te voeren en te bezitten, is zojuist van de serverruimte naar de bureaula verhuisd. En het bedrijf dat bijna elke serieuze AI-chip ter wereld verkoopt, heeft er zojuist voor gezorgd dat het ook de bureaula verkoopt.



