AI is niet langer slechts een cascade van algoritmen die zijn getraind op enorme hoeveelheden gegevens. Het is een fysiek en infrastructureel fenomeen geworden, waarvan de toekomst niet zal worden bepaald door doorbraken in benchmarks, maar door de harde realiteit van macht, geografie, regulering en de aard van intelligentie. Bedrijven die dit niet zien, zullen verblind worden.
Datacenters waren ooit de steriele achterkamers van het internet: belangrijk, maar onzichtbaar. Tegenwoordig zijn ze het kloppende hart van de generatieve generatie AIde fysieke motoren die grote taalmodellen (LLM’s) mogelijk maken. Maar wat als deze motoren, en de modellen die ze aandrijven, op beperkingen stuiten die niet kunnen worden opgelost met meer kapitaal, meer datacenters of krachtigere chips?
In 2025 en in 2026, gemeenschappen in de VS hebben zich verzet tegen de bouw van nieuwe datacenters. In Springfield, Ohio; In Loudoun County, Virginia en elders hebben lokale bewoners en functionarissen bezwaar gemaakt tegen het idee van enorme faciliteiten die enorme hoeveelheden elektriciteit verbruiken, wijken ontwrichten en de toch al overbelaste elektriciteitsnetten onder druk zetten. Deze conflicten staan niet op zichzelf. Ze zijn een signaal, een structureel wrijvingspunt in de expansie van de AI-economie.
Tegelijkertijd waarschuwen nutsbedrijven voor een dreigende botsing tussen de energiebehoefte van AI en de kosten van de energie-infrastructuur. Verschillende staten overwegen hogere energietarieven voor data-intensieve activiteiten, met het argument dat het enorme energieverbruik van AI-datacenters verandert de economie van de elektriciteitsdistributie, vaak ten koste van de gewone consument.
Deze wrijving tussen lokale weerstand tegen datacenters, de fysieke grenzen van het energienetwerk en de politieke druk op nutsbedrijven is meer dan een planningsgeschil. Het onthult een diepere waarheid: De grootste beperking van AI is niet de algoritmische vindingrijkheid, maar de fysieke realiteit.
Wanneer de realiteit de AI-droom binnendringt
Het dominante verhaal in de technologie is al jaren dat meer data en grotere modellen gelijk staan aan betere intelligentie. De logica was verleidelijk: schaal de trainingsgegevens op, schaal de rekenkracht op en er zal intelligentie ontstaan. Maar deze logica gaat ervan uit dat drie dingen waar zijn:
- Gegevens kunnen altijd op grote schaal worden verzameld en verwerkt.
- Datacenters kunnen worden gebouwd waar ze nodig zijn.
- Op taal gebaseerde modellen kunnen dienen als proxy’s voor het begrijpen van de wereld.
De eerste veronderstelling wankelt. De tweede is het ontmoeten van politieke en fysieke weerstand. Het derde, dat alleen taal de werkelijkheid kan modelleren, is rustig ontrafelen.
Grote taalmodellen worden getraind op enorme corpora van menselijke tekst. Maar die tekst is geen transparante weerspiegeling van de werkelijkheid: het is een distillatie van percepties, vooroordelen, weglatingen en verkeerde interpretaties, gefilterd door het menselijke taalgebruik. Een deel daarvan is nuttig. Een groot deel ervan is gedeeltelijk, anekdotisch of ronduit verkeerd. Naarmate deze modellen groeien, worden hun trainingsgegevens steeds groter de lens waardoor zij de wereld interpreteren. Maar die lens is inherent gebrekkig.
Dit is van belang omdat taal geen realiteit is: het is een weergave van individuele en collectieve verhalen. Een taalmodel leert de verspreiding van taalniet de causale structuur van gebeurtenissen, niet de fysica van de wereld, niet de zintuiglijke rijkdom van geleefde ervaringen. Deze beperking zal duidelijk worden naarmate AI in domeinen wordt geduwd waar contextueel begrip van de wereld, en niet alleen tekstpatronen, essentieel is voor prestaties, veiligheid en bruikbaarheid in de echte wereld.
Een structurele crisis in de maak
We naderen een vreemde paradox: juist het succes van op taal gebaseerde AI leidt tot structurele veroudering ervan.
Terwijl organisaties miljarden investeren in een generatieve AI-infrastructuur, doen ze dit in de veronderstelling dat grotere modellen, meer parameters en grotere datasets betere resultaten zullen blijven opleveren. Maar die veronderstelling staat op gespannen voet met drie opkomende grenzen:
- Energie- en locatiebeperkingen: Nu datacenters te maken krijgen met weerstand vanuit de gemeenschap en netwerkbeperkingen, zal de uitbreiding van de AI-rekencapaciteit vertragen, vooral in regio’s zonder overtollige energie en sterke planningssystemen.
- Regelgevende wrijving: Staten en landen zullen het elektriciteitsverbruik, de uitstoot van datacenters en het landgebruik steeds meer reguleren, waardoor nieuwe kosten en obstakels voor de AI-infrastructuur ontstaan.
- Cognitieve beperkingen van LLM’s: Modellen die alleen op tekst zijn getraind, bereiken een plafond voor echt begrip. De volgende echte doorbraken in AI zullen modellen vereisen die leren van rijkere, multimodale interacties uit echte omgevingen, sensorische gegevens en gestructureerde causale feedback, en niet alleen tekstcorpora. Taal alleen zal een dieper machinaal begrip niet ontsluiten.
Dit is geen speculatieve zorg. We zien het in de inconsistenties van de huidige LLM’s: vertrouwen in hun fouten, verankerd in oude dataEn niet in staat om te redeneren over de fysieke of causale aspecten van de werkelijkheid. Dit zijn geen bugs: dat zijn ze structurele beperkingen.
Waarom dit belangrijk is voor de bedrijfsstrategie
CEO’s en leiders die AI-leiderschap blijven gelijkstellen aan grotere modellen en meer datacentercapaciteit, maken een fundamentele strategische fout. De toekomst van AI zal niet worden bepaald door hoe veel rekenkracht die je hebt, maar door hoe goed je integreert intelligentie met de fysieke wereld.
Industrieën als robotica, autonome voertuigen, medische diagnose, klimaatmodellering en industriële automatisering vragen om modellen die kunnen redeneren over causaliteit, omgevingen kunnen aanvoelen en kunnen leren van ervaringen, niet alleen van taalpatronen. De winnaars op deze domeinen zullen degenen zijn die investeren in hybride systemen die taal combineren met perceptie, belichaming en gegronde interactie.
Conclusie: de werkelijkheid bijt terug
Het verhaal dat AI een oneindige grens is, is zowel voor investeerders, journalisten als technologen handig geweest. Maar zoals bij alle krachtige verhalen komt het uiteindelijk toch tot een ontmoeting de harde muur van de werkelijkheid. Datacenters lopen tegen politieke en energiegrenzen aan. Alleen-taalmodellen laten hun grenzen zien. En de veronderstelling dat schaal alle problemen oplost, schudt op zijn grondvesten.
Het volgende hoofdstuk van AI zal niet gaan over wie het grootste model bouwt. Het zal gaan over wie de wereld in al zijn fysieke, causale en belichaamde complexiteit begrijpt, en systemen bouwt die gegrond in de werkelijkheid.
Innovatie op het gebied van AI zal steeds vaker niet worden gemeten aan de hand van de grootte van het datacenter of het aantal parameters, maar aan de mate waarin machines de werkelijke wereld waarnemen, ermee omgaan en erover redeneren.


