Grote taalmodellen voelen zich intelligent omdat ze vloeiend, zelfverzekerd en op grote schaal spreken. Maar vloeiendheid is geen begrip, en vertrouwen is geen perceptie. Om de echte beperkingen van vandaag te begrijpen AI systemen helpt het om een idee dat meer dan tweeduizend jaar oud is opnieuw te bekijken.
In De Republiek beschrijft Plato de allegorie van de grot: gevangenen die in een grot zijn vastgeketend, kunnen alleen schaduwen zien die op een muur worden geprojecteerd. Omdat ze nog nooit de echte objecten hebben gezien die deze schaduwen werpen, verwarren ze de schijn met de werkelijkheid, en wordt hen de mogelijkheid ontzegd de echte wereld te ervaren.
Grote taalmodellen leven in een zeer vergelijkbare grot.
LLM’s nemen de wereld niet waar: ze lezen erover
LLM’s zien, horen, aanraken of communiceren niet met de werkelijkheid. Ze zijn bijna volledig getraind op tekst: boeken, artikelen, berichten, commentaren, transcripties en fragmenten van menselijke expressie verzameld uit de geschiedenis en het internet. Die tekst is hun enige input. Hun enige ‘ervaring’.
LLM’s ‘zien’ alleen schaduwen: door mensen geproduceerde teksten die de wereld beschrijven. Die teksten zijn hun hele universum. Alles wat een LLM over de werkelijkheid weet, wordt gefilterd door taal, geschreven door mensen met een verschillende mate van intelligentie, eerlijkheid, vooringenomenheid, kennis en intentie.
Tekst is niet de werkelijkheid: het is een menselijke representatie van de werkelijkheid. Het is gemedieerd, onvolledig, bevooroordeeld, enorm heterogeen en vaak vervormd. Menselijke taal weerspiegelt meningen, misverstanden, culturele blinde vlekken en regelrechte onwaarheden. Boeken en internet bevatten bijzondere inzichten, maar ook complottheorieën, propaganda, pornografie, misbruik en pure onzin. Als we LLM’s trainen in ‘alle tekst’, geven we ze geen toegang tot de wereld. We geven ze toegang tot de schaduwen van de mensheid aan de muur.
Dit is geen kleine beperking. Het is de belangrijkste architectonische fout van de huidige AI.
Waarom schaal het probleem niet oplost
De heersende veronderstelling in de AI-strategie is dat schaal alles oplost: meer data, grotere modellen, meer parameters, meer rekenkracht. Maar meer schaduwen op de muur staan niet gelijk aan de werkelijkheid.
Omdat LLM’s zijn getraind om het statistisch meest waarschijnlijke volgende woord te voorspellen, blinken ze uit in het produceren van plausibele taal, maar niet in het begrijpen van causaliteit, fysieke beperkingen of gevolgen in de echte wereld. Dit is waarom hallucinaties geen bug zijn die moet worden opgelost, maar een structurele beperking.
Als Yann LeCun heeft herhaaldelijk betoogd, taal alleen is geen voldoende basis voor intelligentie.
De verschuiving naar wereldmodellen
Daarom verschuift de aandacht steeds meer naar wereld modellen: systemen die interne representaties opbouwen van hoe omgevingen werken, leren van interactie en resultaten simuleren voordat ze handelen.
In tegenstelling tot LLM’s zijn wereldmodellen niet beperkt tot tekst. Ze kunnen tijdreeksgegevens, sensorinvoer, feedbackloops, ERP-gegevens, spreadsheets, simulaties en de gevolgen van acties bevatten. In plaats van te vragen “Wat is het meest waarschijnlijke volgende woord?”, stellen ze een veel krachtigere vraag:
“Wat zal er gebeuren als we dit doen?”
Hoe dit er in de praktijk uitziet
Voor leidinggevenden is dit geen abstract onderzoeksdebat. Er zijn al wereldmodellen in opkomst (vaak zonder als zodanig te worden bestempeld), op domeinen waar taal alleen onvoldoende is.
- Toeleveringsketens en logistiek: Een taalmodel kan verstoringen samenvatten of rapporten genereren. Een wereldmodel kan simuleren hoe een havensluiting, een stijging van de brandstofprijs of het falen van leveranciers zich via een netwerk voortplant, en alternatieve reacties testen voordat er kapitaal wordt vastgelegd.
- Verzekeringen en risicobeheer: LLM’s kunnen beleid uitleggen of vragen van klanten beantwoorden. Wereldmodellen kunnen leren hoe risico’s zich in de loop van de tijd feitelijk ontwikkelen, extreme gebeurtenissen simuleren en trapsgewijze verliezen inschatten onder verschillende scenario’s, iets wat geen enkel tekstsysteem op betrouwbare wijze kan doen.
- Productie en operaties: Digitale tweelingen van fabrieken zijn modellen uit de vroege wereld. Ze beschrijven niet alleen processen; ze simuleren de interactie tussen machines, materialen en timing, waardoor bedrijven storingen kunnen voorspellen, de doorvoer kunnen optimaliseren en veranderingen virtueel kunnen testen voordat ze het echte systeem aanraken.
In al deze gevallen is taal nuttig, maar onvoldoende. Begrip vereist een model van hoe de wereld zich gedraagt, niet alleen hoe mensen erover praten.
De post-LLM-architectuur
Dit betekent niet dat taalmodellen moeten worden opgegeven. Het betekent dat je ze op de juiste plek zet.
In de volgende fase van AI:
- LLM’s worden interfaces, copiloten en vertalers
- Wereldmodellen bieden basis, voorspelling en planning
- Taal staat bovenop systemen die leren van de werkelijkheid zelf
In Plato’s allegorie worden de gevangenen niet bevrijd door de schaduwen zorgvuldiger te bestuderen: ze worden bevrijd door zich om te draaien en de bron van die schaduwen te confronteren, en uiteindelijk de wereld buiten de grot.
AI nadert een soortgelijk moment.
De organisaties die dit al vroeg onderkennen, zullen ophouden vloeiende taal met begrip te verwarren en zullen gaan investeren in architecturen die hun eigen realiteit modelleren. Die bedrijven zullen niet alleen AI bouwen die overtuigend over de wereld praat: ze zullen AI bouwen die daadwerkelijk begrijpt hoe het werkt.
Begrijpt uw bedrijf dit? Zal uw bedrijf in staat zijn zijn wereldmodel op te bouwen?



.jpg)