De afgelopen twee jaar heeft kunstmatige intelligentie voelt vreemd vlak aan.
Grote taalmodellen verspreidden zich met een ongekende snelheid, maar ze hebben ook een groot deel van de concurrentiegradiënt uitgewist. Iedereen heeft toegang tot dezelfde modellen, dezelfde interfaces en, steeds vaker, dezelfde antwoorden. Wat aanvankelijk leek op een technologische revolutie, begon al snel op een nutsvoorziening te lijken: krachtig, indrukwekkend en grotendeels uitwisselbaar, een dynamiek die al zichtbaar is in de snelle commoditisering van basismodellen bij aanbieders als OpenAI, Google, Anthropic en Meta.
Die afvlakking is geen toeval. LLM’s zijn buitengewoon goed in één ding: leren van tekst– maar structureel niet in staat tot iets anders: begrijpen hoe de echte wereld zich gedraagt. Zij modelleer geen causaliteitzij leer niet van fysieke of operationele feedbacken zij bouw geen interne representaties van omgevingenbelangrijk beperkingen dat zelfs hun meest prominente voorstanders nu openlijk erkennen.
Ze voorspellen woorden, geen gevolgen, een onderscheid dat pijnlijk duidelijk wordt op het moment dat deze systemen wordt gevraagd buiten de puur taalkundige domeinen te opereren.
De valse keuze die de AI-strategie tegenhoudt
Een groot deel van de hedendaagse AI-strategie zit gevangen in binair denken. Bedrijven ‘huren intelligentie’ uit generieke modellen, of ze proberen alles zelf te bouwen: eigen infrastructuur, op maat gemaakte compute-stacks en op maat gemaakte AI-pijplijnen die hyperscalers nabootsen.
Die framing is zowel onrealistisch als historisch analfabeet.
- De meeste bedrijven zijn er niet concurrerend door geworden het bouwen van hun eigen databases.
- Ze hebben niet hun eigen tekst geschreven besturingssystemen.
- Ze hebben niet gebouwd hyperscale datacenters om waarde uit analyses te halen.
In plaats daarvan adopteerden ze gedeelde platforms en bouwden daarbovenop zeer aangepaste systemen, systemen die hun specifieke processen, beperkingen en prikkels weerspiegelden.
AI zal hetzelfde pad volgen.
Wereldmodellen zijn geen infrastructuurprojecten
Wereldmodellen, systemen die leren hoe omgevingen zich gedragen, feedback opnemen en voorspellingen en planning mogelijk maken, hebben dat wel gedaan een lange intellectuele geschiedenis in AI-onderzoek.
Meer recentelijk hebben ze dat wel gedaan opnieuw naar voren als een centrale onderzoeksrichting juist omdat LLM’s een plateau bereiken wanneer ze worden geconfronteerd met de realiteit, causaliteit en tijd.
Ze worden vaak omschreven alsof ze verticale integratie op elke laag vereisen. Die veronderstelling is verkeerd.
De meeste bedrijven zullen geen op maat gemaakte datacenters of eigen compute-stacks bouwen om wereldmodellen uit te voeren. De verwachting dat ze dit zullen doen herhaalt zich dezelfde fout die we zagen in eerdere ‘AI-first’- of ‘cloud-native’-verhalenwaar infrastructuurambitie werd verward met strategische noodzaak.
Wat er feitelijk zal gebeuren is subtieler en krachtiger: er zullen wereldmodellen worden een nieuwe abstractielaag in de enterprise-stackgebouwd bovenop gedeelde platforms op dezelfde manier als databases, ERP’s en cloudanalyses dat vandaag de dag zijn.
De infrastructuur zal gemeenschappelijk zijn. Het begrip zal dat niet doen.
Waarom platforms wereldmodellen alomtegenwoordig zullen maken
Net zoals cloudplatforms democratiseerden de toegang tot grootschalige berekeningenzullen opkomende AI-platforms wereldmodellering toegankelijk maken zonder dat bedrijven de stapel opnieuw hoeven uit te vinden. Ze zullen zich bezighouden met simulatiemotoren, trainingspijplijnen, integratie met sensoren en systemen, en het zware rekenwerk – precies de richting die al zichtbaar is in versterkend leren, roboticaEn industriële AI-platforms.
Dit maakt wereldmodellen niet tot commoditisme. Het doet het tegenovergestelde.
Wanneer de platformlaag wordt gedeeld, beweegt de differentiatie naar boven. Bedrijven concurreren niet op wie de hardware bezit, maar op hoe goed hun modellen de werkelijkheid weerspiegelen: welke variabelen ze bevatten, hoe ze beperkingen coderen, hoe feedbackloops worden ontworpen en hoe snel voorspellingen worden gecorrigeerd als de wereld het er niet mee eens is.
Twee bedrijven kunnen op hetzelfde platform draaien en toch met radicaal verschillende niveaus van begrip opereren.
Van taalkundige intelligentie naar operationele intelligentie
LLM’s hebben de adoptie van AI afgevlakt omdat ze taalkundige intelligentie universeel maakten. Maar Puur op tekst gebaseerde systemen ontberen een diepere contextuele basis, causaal redeneren en temporeel begrip; beperkingen die goed gedocumenteerd zijn in onderzoek naar basismodellen. Wereldmodellen zullen het weer platter maken door context, causaliteit en tijd opnieuw te introduceren, precies die eigenschappen die ontbreken in puur op tekst gebaseerde systemen.
In de logistiek komt het voordeel bijvoorbeeld niet voort uit het vragen aan een chatbot over supply chain-optimalisatie. Het zal afkomstig zijn een model dat begrijpt hoe vertragingen zich voortplanten, hoe voorraadbeslissingen interageren met de variabiliteit van de vraag, en hoe kleine veranderingen in de loop van weken of maanden door het systeem stromen.
Waar concurrentievoordeel daadwerkelijk zal bestaan
De echte differentiatie zal epistemisch zijn en niet infrastructureel.
Het zal afkomstig zijn hoe gedisciplineerd een bedrijf is als het gaat om datakwaliteithoe rigoureus het ook is sluit feedbackloops tussen voorspelling en uitkomst (Onthoud deze zin: Feedback is alles wat je nodig hebt), en hoe goed organisatorische prikkels aansluiten bij leren in plaats van bij narratief gemak. Wereldmodellen belonen bedrijven die bereid zijn zich door de realiteit te laten corrigeren straffen degenen die dat niet zijn.
Platforms zullen enorm belangrijk zijn. Maar platforms standaardiseren alleen de mogelijkheden, niet de kennis. Gedeelde infrastructuur leidt niet tot gedeeld begrip: twee bedrijven kunnen op dezelfde cloud draaien, hetzelfde AI-platform gebruiken, zelfs dezelfde onderliggende technieken inzetten, en toch tot radicaal verschillende resultaten komen, omdat begrip niet is ingebed in de infrastructuur. Het komt voort uit de manier waarop een bedrijf zijn eigen realiteit modelleert.
Inzicht zit hogerop in de keuzes die platforms niet voor je kunnen maken: welke variabelen er toe doen, welke afwegingen reëel zijn, welke beperkingen bindend zijn, wat telt als succes, hoe feedback wordt verwerkt en hoe fouten worden gecorrigeerd. Een platform kan je een wereldmodel laten bouwen, maar het kan je niet vertellen wat jouw wereld eigenlijk is.
Zie het zo: niet elk bedrijf dat SAP gebruikt, heeft hetzelfde operationele inzicht. Elk bedrijf dat op AWS draait, beschikt niet over dezelfde analytische verfijning. De infrastructuur wordt gedeeld; het mentale model is dat niet. Hetzelfde zal gelden voor wereldmodellen.
Platforms maken wereldmodellen mogelijk. Begrip maakt ze waardevol.
De volgende enterprise AI-stack
In de volgende fase van AI zal het concurrentievoordeel niet voortkomen uit het bouwen van eigen infrastructuur. Het zal voortkomen uit het bouwen van betere modellen van de werkelijkheid bovenop platforms die wereldmodellering alomtegenwoordig maken.
Dat is een veel veeleisender uitdaging dan het kopen van rekenkracht. En het is er een die geen enkele snelle engineering kan oplossen.



