Het is de vraag die op ieders hoofd en lippen brandt: zitten we in een AI-bubbel?
Het is de verkeerde vraag. De echte vraag is: Welke We bevinden ons in een AI-bubbel, en wanneer zal deze barsten?
Het debat over de vraag of AI een transformatieve technologie of een economische tijdbom heeft een koortshoogte bereikt. Zelfs technologieleiders als Meta-CEO Mark Zuckerberg hebben bewijzen erkend van een onstabiele financiële zeepbel rond AI. Sam Altman, CEO van OpenAI, en mede-oprichter van Microsoft, Bill Gates, zien een duidelijke zeepbeldynamiek: overenthousiaste investeerders, schuimige waarderingen en veel gedoemde projecten – maar ze geloven nog steeds dat AI uiteindelijk de economie zal transformeren.
Maar het behandelen van ‘AI’ als een enkele monolithische entiteit die bestemd is voor een uniforme ineenstorting is fundamenteel misleidend. Het AI-ecosysteem bestaat eigenlijk uit drie verschillende lagen, elk met verschillende economische aspecten, weerbaarheid en risicoprofielen. Het begrijpen van deze lagen is van cruciaal belang, omdat ze niet allemaal tegelijk opduiken.
Laag 3: De wikkelbedrijven (die als eerste vallen)
Het meest kwetsbare segment is niet het bouwen van AI, maar het herverpakken ervan.
Dit zijn de bedrijven die de API van OpenAI gebruiken, een gelikte interface en wat snelle engineering toevoegen, en vervolgens $ 49/maand in rekening brengen voor wat neerkomt op een veredelde ChatGPT-wrapper. Sommigen hebben snel aanvankelijk succes geboekt, zoals Jasper.aidat in het eerste jaar ongeveer $ 42 miljoen aan jaarlijkse terugkerende inkomsten (ARR) bereikte door GPT-modellen in een gebruiksvriendelijke interface voor marketeers te verpakken.
Maar de scheuren zijn al zichtbaar. Deze bedrijven worden van alle kanten geconfronteerd met bedreigingen:
Voorzien van absorptie: Microsoft kan uw AI-schrijftool van $ 50/maand morgen in Office 365 bundelen. Google kan van uw AI-e-mailassistent een gratis Gmail-functie maken. Salesforce kan uw AI-verkooptool native in hun CRM inbouwen. Wanneer grote platforms besluiten dat uw product een functie is en geen product, verdampt uw bedrijfsmodel van de ene op de andere dag.
De commoditiseringsval: Wrapper-bedrijven geven in wezen alleen input en output door. Als OpenAI de prompting verbetert, verliezen deze tools van de ene op de andere dag hun waarde. Naarmate de basismodellen qua mogelijkheden steeds meer op elkaar gaan lijken en de prijzen blijven dalen, worden de marges tot nul gereduceerd.
Geen overstapkosten: De meeste wrapperbedrijven beschikken niet over bedrijfseigen gegevens, ingebedde workflows of diepgaande integraties. Een klant kan binnen enkele minuten overstappen naar een concurrent of rechtstreeks naar ChatGPT. Er is geen slotgracht, geen lock-in, geen verdedigbaarheid.
De white-label AI-markt is een voorbeeld van deze kwetsbaarheid. Bedrijven die white-label platforms gebruiken, lopen het risico dat ze afhankelijk zijn van leveranciers als gevolg van propriëtaire systemen en API-beperkingen die de integratie kunnen belemmeren. Deze bedrijven bouwen op gehuurde grond en de verhuurder kan op elk moment de voorwaarden wijzigen of het pand platgooien.
De uitzondering die de regel bevestigt: Cursor staat bekend als een zeldzaam wrapper-layer-bedrijf dat echte weerbaarheid heeft opgebouwd. Door diepgaand te integreren in de workflows van ontwikkelaars, eigen functies te creëren die verder gaan dan eenvoudige API-aanroepen en sterke netwerkeffecten te creëren via gebruikersgewoonten en aangepaste configuraties, heeft Cursor aangetoond hoe een wrapper kan evolueren naar iets substantieels. Maar bedrijven als Cursor zijn uitschieters en niet de norm; de meeste wrapperbedrijven missen dit niveau van workflowintegratie en gebruikerslock-in.
Tijdlijn: Verwacht aanzienlijke mislukkingen in dit segment tussen eind 2025 en 2026, omdat grote platforms functionaliteit absorberen en gebruikers zich realiseren dat ze premiumprijzen betalen voor standaardmogelijkheden.
Laag 2: Funderingsmodellen (de middenweg)
De bedrijven die LLM’s bouwen – OpenAI, AntropischMistral – nemen een beter verdedigbare maar nog steeds precaire positie in.
Economisch onderzoeker Richard Bernstein wijst OpenAI aan als een voorbeeld van de zeepbeldynamiek en merkt op dat het bedrijf ongeveer $1 biljoen aan AI-deals heeft gesloten, waaronder een datacenter-uitbreidingsproject ter waarde van $500 miljard, ondanks dat het naar verwachting slechts $13 miljard aan inkomsten zal genereren. Het verschil tussen investeringen en plausibele winsten “ziet er zeker bruisend uit”, merkt Bernstein op.
Toch beschikken deze bedrijven over echte technologische troeven: expertise op het gebied van modeltraining, computertoegang en prestatievoordelen. De vraag is of deze voordelen duurzaam zijn of dat modellen zodanig zullen worden gecommoditiseerd dat ze niet meer van elkaar te onderscheiden zijn, waardoor aanbieders van funderingsmodellen veranderen in infrastructuurbedrijven met lage marges.
Engineering zal winnaars van verliezers scheiden: Naarmate basismodellen convergeren in basiscapaciteiten, zal het concurrentievoordeel steeds meer voortkomen uit gevolgtrekkingsoptimalisatie en systeemtechniek. Bedrijven die de geheugenmuur kunnen opschalen door middel van innovaties zoals uitgebreide KV-cache-architecturen, een superieure tokendoorvoer kunnen bereiken en een snellere time-to-first-token kunnen leveren, zullen premium prijzen en marktaandeel afdwingen. De winnaars zullen niet alleen degenen zijn met de grootste trainingsreeksen, maar ook degenen die AI-gevolgtrekkingen op schaal economisch haalbaar kunnen maken. Technische doorbraken op het gebied van geheugenbeheer, cachingstrategieën en infrastructuurefficiëntie zullen bepalen welke grenslaboratoria de consolidatie overleven.
Een ander punt van zorg is het circulaire karakter van beleggingen. Nvidia pompt bijvoorbeeld 100 miljard dollar in OpenAI om datacenters te financieren, en OpenAI vult die faciliteiten vervolgens met Nvidia’s chips. Nvidia subsidieert in wezen een van zijn grootste klanten, waardoor de daadwerkelijke AI-vraag mogelijk kunstmatig wordt opgeblazen.
Toch beschikken deze bedrijven over enorme kapitaalsteun, echte technische capaciteiten en strategische partnerschappen met grote cloudproviders en ondernemingen. Sommige zullen consolideren, sommige zullen worden overgenomen, maar de categorie zal overleven.
Tijdlijn: Consolidatie in de periode 2026 tot 2028, waarbij twee tot drie dominante spelers opkomen terwijl kleinere modelaanbieders worden overgenomen of gesloten.
Laag 1: Infrastructuur (gebouwd om lang mee te gaan)
Dit is het tegengestelde standpunt: de infrastructuurlaag – inclusief Nvidia, datacenters, cloudproviders, geheugensystemen en AI-geoptimaliseerde opslag – is het minst bruisende deel van de AI-boom.
Ja, de laatste schattingen suggereren dat de mondiale AI-investeringen en durfkapitaalinvesteringen in 2025 al meer dan 600 miljard dollar zullen bedragen, waarbij Gartner schat dat alle AI-gerelateerde uitgaven wereldwijd zou wel eens $1,5 biljoen kunnen bedragen. Dat klinkt als bubbelterritorium.
Maar infrastructuur heeft een cruciaal kenmerk: het behoudt waarde, ongeacht welke specifieke toepassingen succesvol zijn. De glasvezelkabels die tijdens de dotcom-zeepbel werden gelegd, waren geen verspilling: ze maakten YouTube, Netflix en cloud computing mogelijk. Vijfentwintig jaar geleden barstte de oorspronkelijke internetzeepbel nadat de schuldfinanciering glasvezelkabels had aangelegd voor een toekomst die er nog niet was, maar die toekomst kwam er uiteindelijk wel, en de infrastructuur lag daar te wachten.
Ondanks de voorraaddruk bleef Nvidia’s Q3 boekjaar 2025 De omzet bereikte ongeveer $57 miljard, een stijging van 22% kwartaal-op-kwartaal en 62% jaar-op-jaar, waarbij de datacenterdivisie alleen al ongeveer $51,2 miljard genereerde. Dit zijn geen ijdelheidsstatistieken; ze vertegenwoordigen de reële vraag van bedrijven die echte infrastructuurinvesteringen doen.
De chips, datacentra, geheugensystemen en opslaginfrastructuur die vandaag de dag worden gebouwd, zullen alle AI-toepassingen aandrijven die uiteindelijk succesvol zullen zijn, of dat nu de chatbots van vandaag zijn, de autonome agenten van morgen of toepassingen die we ons nog niet eens hebben voorgesteld. In tegenstelling tot gewone opslag alleen omvat de moderne AI-infrastructuur de gehele geheugenhiërarchie – van GPU HBM tot DRAM tot krachtige opslagsystemen die dienen als tokenmagazijnen voor inferentieworkloads. Deze geïntegreerde benadering van geheugen en opslag vertegenwoordigt een fundamentele architecturale innovatie, geen commodity-spel.
Tijdlijn: Overbuilding op de korte termijn en lazy engineering zijn mogelijk (2026), maar waardebehoud op de lange termijn wordt verwacht naarmate de AI-workloads de komende tien jaar toenemen.
Het cascade-effect: waarom dit ertoe doet
De huidige AI-boom zal niet eindigen met één dramatische crash. In plaats daarvan zullen we een waterval van mislukkingen zien, te beginnen bij de meest kwetsbare bedrijven, en de waarschuwingssignalen zijn er al.
Fase 1: Wrapper- en white-labelbedrijven worden geconfronteerd met compressie van marges en absorptie van functies. Honderden AI-startups met een beperkte differentiatie zullen sluiten of voor centen per dollar verkopen. Meer dan 1.300 AI-startups hebben nu een waardering van meer dan $100 miljoen 498 AI “eenhoorns” gewaardeerd op $1 miljard of meer, waarvan vele deze waarderingen niet zullen rechtvaardigen.
Fase 2: Consolidatie van basismodellen naarmate de prestaties convergeren en alleen de best gekapitaliseerde spelers overleven. Verwacht drie tot vijf grote overnames terwijl technologiegiganten veelbelovende modelbedrijven overnemen.
Fase 3: De uitgaven voor infrastructuur normaliseren, maar blijven hoog. Sommige datacenters zullen een paar jaar gedeeltelijk leeg staan (zoals glasvezelkabels in 2002), maar uiteindelijk zullen ze vol raken naarmate de AI-werklast daadwerkelijk toeneemt.
Wat dit betekent voor bouwers
Het grootste risico is dat het geen verpakking is, maar dat het er één blijft. Als u de eigenaar bent van de ervaring waarin de gebruiker actief is, bent u de eigenaar van de gebruiker.
Als u in de applicatielaag aan het bouwen bent, moet u onmiddellijk naar boven gaan:
Van wrapper → applicatielaag: Stop met het genereren van output. Beheers de workflow voor en na de AI-interactie.
Vanuit applicatie → verticale SaaS: Bouw uitvoeringslagen die gebruikers dwingen binnen uw product te blijven. Creëer eigen data, diepgaande integraties en workfloweigendom die het overstappen pijnlijk maken.
De distributiegracht: Uw echte voordeel is niet de LLM, maar de manier waarop u gebruikers krijgt, behoudt en uitbreidt wat zij binnen uw platform doen. Winnende AI-bedrijven zijn niet alleen softwarebedrijven; het zijn distributiebedrijven.
De bottom-line
Het is tijd om te stoppen met de vraag of we ons in ‘de’ AI-bubbel bevinden. We bevinden ons in meerdere bubbels met verschillende kenmerken en tijdlijnen.
De wikkelbedrijven zullen als eerste verschijnen, waarschijnlijk binnen 18 maanden. Funderingsmodellen zullen de komende twee tot vier jaar consolideren. Ik voorspel dat de huidige investeringen in infrastructuur uiteindelijk op de lange termijn gerechtvaardigd zullen blijken, zij het niet zonder enige overbouwproblemen op de korte termijn.
Dit is geen reden voor pessimisme, het is een routekaart. Begrijpen in welke laag je opereert en in welke bubbel je misschien terechtkomt, is het verschil tussen het volgende slachtoffer worden en iets bouwen dat de shake-out overleeft.
De AI-revolutie is een feit. Maar niet elk bedrijf dat op de golf meevaart, zal de kust bereiken.
Val Bercovici is CAIO bij WEKA.
Welkom bij de VentureBeat-community!
In ons gastpostprogramma delen technische experts inzichten en bieden ze neutrale, niet-gevestigde diepgaande inzichten over AI, data-infrastructuur, cyberbeveiliging en andere geavanceerde technologieën die de toekomst van het bedrijfsleven vormgeven.
Lees meer uit ons gastpostprogramma — en bekijk ons richtlijnen als u geïnteresseerd bent om een eigen artikel bij te dragen!


