Eugène Mymrin | Ogenblik | Getty-afbeeldingen
Alle computerapparatuur heeft een onderdeel nodig dat geheugen of RAM wordt genoemd voor gegevensopslag op de korte termijn, maar dit jaar zullen er niet genoeg van deze essentiële componenten zijn om aan de wereldwijde vraag te voldoen.
Dat komt omdat bedrijven het leuk vinden Nvidia, Geavanceerde micro-apparaten En Googlen hebben zoveel RAM nodig voor hun kunstmatige intelligentiechips, en die bedrijven staan als eerste in de rij voor de componenten.
Drie leveranciers van primair geheugen — MicronSK Hynix en Samsung Electronics – vormen bijna de gehele RAM-markt, en hun bedrijven profiteren van de sterke stijging van de vraag.
“We hebben een zeer scherpe, aanzienlijke stijging van de vraag naar geheugen gezien, en deze heeft ons vermogen om dat geheugen te leveren en, naar onze inschatting, het aanbod van de hele geheugenindustrie, ruimschoots overtroffen”, vertelde Sumit Sadana, hoofd van Micron Business, deze week aan CNBC op de CES-beurs in Las Vegas.
De aandelen van Micron zijn het afgelopen jaar met 247% gestegen en het bedrijf rapporteerde dat nettoresultaat bijna verdrievoudigd in het meest recente kwartaal. Dat zei Samsung deze week dat het verwacht dat de bedrijfswinst in december ook bijna zal verdrievoudigen. In de tussentijd, SK Hynix overweegt een notering in de VS naarmate de aandelenkoers in Zuid-Korea stijgt, en in oktober zei het bedrijf dat het de vraag had veiliggesteld voor de gehele RAM-productiecapaciteit voor 2026.
Nu stijgen de prijzen voor geheugen.
TrendForce, een in Taipei gevestigde onderzoeker die de geheugenmarkt nauwlettend in de gaten houdt, zei deze week dat het verwacht dat de gemiddelde DRAM-geheugenprijzen dit kwartaal tussen 50% en 55% zullen stijgen ten opzichte van het vierde kwartaal van 2025. TrendForce-analist Tom Hsu vertelde CNBC dat dit soort stijgingen voor geheugenprijzen “ongekend” was.
Drie tegen één basis
Chipmakers zoals Nvidia omringen het deel van de chip dat de berekeningen uitvoert – de grafische verwerkingseenheid of GPU – met verschillende blokken van een snelle, gespecialiseerde component genaamd geheugen met hoge bandbreedte, of HBM, zei Sadana. HBM is vaak zichtbaar als chipmakers hun nieuwe chips omhoog houden. Micron levert geheugen aan zowel Nvidia als AMD, de twee toonaangevende GPU-makers.
Nvidia’s Rubin GPU, die onlangs in productie is gegaan, wordt geleverd met maximaal 288 gigabyte HBM4-geheugen van de volgende generatie per chip. HBM is geïnstalleerd in acht zichtbare blokken boven en onder de processor, en die GPU zal worden verkocht als onderdeel van een enkel serverrack genaamd NVL72, dat passend 72 van die GPU’s combineert in één enkel systeem. Ter vergelijking: smartphones worden doorgaans geleverd met 8 of 12 GB DDR-geheugen met een lager vermogen.
Nvidia-oprichter en CEO Jensen Huang introduceert de Rubin GPU en de Vera CPU terwijl hij spreekt tijdens Nvidia Live op CES 2026 voorafgaand aan de jaarlijkse Consumer Electronics Show in Las Vegas, Nevada, op 5 januari 2026.
Patrick T. Fallon | AFP | Getty-afbeeldingen
Maar het HBM-geheugen dat AI-chips nodig hebben, is veel veeleisender dan het RAM-geheugen dat wordt gebruikt voor laptops en smartphones van consumenten. HBM is ontworpen voor de hoge bandbreedtespecificaties die vereist zijn voor AI-chips, en wordt geproduceerd in een ingewikkeld proces waarbij Micron 12 tot 16 geheugenlagen op één chip stapelt, waardoor deze in een ‘kubus’ verandert.
Wanneer Micron één bit HBM-geheugen maakt, moet het afzien van het maken van drie bits meer conventioneel geheugen voor andere apparaten.
“Naarmate we het HBM-aanbod vergroten, blijft er minder geheugen over voor het niet-HBM-gedeelte van de markt, vanwege deze drie-tegen-één-basis”, aldus Sadana.
Hsu, de analist van TrendForce, zei dat geheugenfabrikanten de voorkeur geven aan server- en HBM-applicaties boven andere klanten, omdat er een groter potentieel is voor groei in de vraag, omdat zakelijke en cloudserviceproviders minder prijsgevoelig zijn.
In december zei Micron dat dit zou gebeuren stopzetten een onderdeel van zijn activiteiten dat tot doel had geheugen te leveren aan consumenten-pc-bouwers, zodat het bedrijf voorraad kon besparen voor AI-chips en servers.
Sommigen binnen de technologie-industrie verbazen zich over hoeveel en hoe snel de prijs van RAM voor consumenten is gestegen.
Dean Beeler, mede-oprichter en technisch hoofd van Juice Labs, zei dat hij een paar maanden geleden zijn computer had uitgerust met 256 GB RAM, de maximale hoeveelheid die de huidige consumentenmoederborden ondersteunen. Dat kostte hem destijds ongeveer 300 dollar.
“Wie had gedacht dat dit slechts een paar maanden later ~3.000 dollar aan RAM zou opleveren”, postte hij maandag op Facebook.
‘Geheugenmuur’
AI-onderzoekers begonnen het geheugen net daarvoor als een knelpunt te zien OpenAI’s ChatGPT kwam eind 2022 op de markt, zegt Sha Rabii, medeoprichter van Majestic Labs, een ondernemer die eerder aan silicium werkte bij Google en Meta.
Eerdere AI-systemen waren ontworpen voor modellen zoals convolutionele neurale netwerken, die minder geheugen vereisen dan grote taalmodellen, of LLM’s, die tegenwoordig populair zijn, zei Rabii.
Terwijl AI-chips zelf veel sneller zijn geworden, is het geheugen dat niet, zei hij, wat ertoe leidt dat krachtige GPU’s wachten om de gegevens te verzamelen die nodig zijn om LLM’s te draaien.
“Je prestaties worden beperkt door de hoeveelheid geheugen en de snelheid van het geheugen dat je hebt, en als je steeds meer GPU’s toevoegt, is dat geen overwinning”, zei Rabii.
De AI-industrie noemt dit de ‘geheugenmuur’.
Erik Isakson | Digitale visie | Getty-afbeeldingen
“De processor besteedt meer tijd aan het draaien van zijn duimen, wachtend op gegevens”, zegt Sadana van Micron.
Meer en sneller geheugen betekent dat AI-systemen grotere modellen kunnen draaien, meer klanten tegelijkertijd kunnen bedienen en ‘contextvensters’ kunnen toevoegen waarmee chatbots en andere LLM’s eerdere gesprekken met gebruikers kunnen onthouden, wat een vleugje personalisatie aan de ervaring toevoegt.
Majestic Labs wel ontwerpen een AI-systeem voor inferentie met 128 terabytes aan geheugen, of ongeveer 100 keer meer geheugen dan sommige huidige AI-systemen, zei Rabii, eraan toevoegend dat het bedrijf van plan is HBM-geheugen te mijden voor goedkopere opties. Rabii zei dat de extra RAM- en architectuurondersteuning in het ontwerp ervoor zal zorgen dat de computers aanzienlijk meer gebruikers tegelijkertijd kunnen ondersteunen dan andere AI-servers, terwijl ze minder stroom verbruiken.
Uitverkocht voor 2026
Wall Street heeft bedrijven in de consumentenelektronicasector gevraagd: Appel En Dell-technologieënhoe ze zullen omgaan met het geheugentekort en of ze misschien gedwongen zullen worden de prijzen te verhogen of de marges te verlagen. Tegenwoordig is geheugen verantwoordelijk voor ongeveer 20% van de hardwarekosten van een laptop, zei Hsu. Dat is een stijging van tussen de 10% en 18% in de eerste helft van 2025.
In oktober zei Kevan Parekh, financieel directeur van Apple, tegen analisten dat zijn bedrijf een “lichte rugwind” zag op de geheugenprijzen, maar hij bagatelliseerde dit als “niets echts om op te merken”.
Maar in november zei Dell dat het verwachtte dat de kostenbasis voor al zijn producten zou stijgen als gevolg van het geheugentekort. COO Jefferey Clarke vertelde analisten dat Dell van plan was zijn mix van configuraties te wijzigen om de prijseffecten te minimaliseren, maar hij zei dat het tekort waarschijnlijk de verkoopprijzen voor apparaten zal beïnvloeden.
“Ik zie niet in hoe dit niet zijn weg zal vinden naar het klantenbestand”, zei Clarke. “We zullen er alles aan doen om dat te verzachten.”
Zelfs Nvidia, dat naar voren is gekomen als de grootste klant op de HBM-markt, wordt geconfronteerd met vragen over zijn hongerige geheugenbehoeften – in het bijzonder over zijn consumentenproducten.
Op een persconferentie dinsdag op CES werd Nvidia-CEO Jensen Huang gevraagd of hij zich zorgen maakte dat de gamingklanten van het bedrijf misschien wrok koesteren over AI-technologie vanwege de stijgende prijzen voor gameconsoles en grafische kaarten die worden veroorzaakt door het geheugentekort.
Huang zei dat Nvidia een zeer grote klant van geheugen is en lange relaties heeft met de bedrijven in de ruimte, maar dat er uiteindelijk meer geheugenfabrieken nodig zouden zijn omdat de behoeften van AI zo hoog zijn.
“Omdat onze vraag zo groot is, maakt elke fabriek en elke HBM-leverancier zich op, en ze doen het allemaal geweldig”, zei Huang.
Micron kan hoogstens aan tweederde van de geheugenbehoeften op middellange termijn van sommige klanten voldoen, aldus Sadana. Maar het bedrijf bouwt momenteel twee grote fabrieken, fabs genaamd, in Boise, Idaho, die in 2027 en 2028 geheugen zullen gaan produceren, zei hij. Micron gaat ook baanbrekend werk doen voor een fabriek in de stad Clay, New York, waarvan hij zei dat deze naar verwachting in 2030 online zal komen.
Maar voorlopig zijn we uitverkocht voor 2026, zei Sadana.


