Toen ChatGPT in november 2022 werd gelanceerd, was de reactie onmiddellijk en diepgeworteld: dit werkt. Voor het eerst hebben miljoenen mensen dit ervaren AI niet als een verre belofte, maar als iets nuttigs, intuïtiefs en zelfs met zijn gebreken, verbazingwekkend capabel.
Dat instinct klopte. De conclusie die volgde was dat niet. Want wat briljant werkt voor een individu achter een toetsenbord, is binnen een organisatie verrassend ineffectief gebleken.
Twee jaar later, na miljarden aan investeringen, talloze piloten en een eindeloze stroom ‘copiloten’, ontstaat er een andere realiteit: generatieve AI is uitzonderlijk in het produceren van taal. Maar bedrijven draaien niet op taal: ze draaien op geheugen, context, feedback en beperkingen. Dat is de kloof. En dat is de reden waarom zoveel zakelijke AI-initiatieven stilletjes mislukken.
Hoge adoptie, lage impact… en een groeiend déjà vu-gevoel
Dit is geen verhaal over een technologie die geen grip heeft gekregen. Het is het tegenovergestelde.
Een veel geciteerde Door MIT gesteunde analyse vond dat Ongeveer 95% van de generatieve AI-pilots van ondernemingen leveren geen zinvolle resultaten opwaarbij slechts ongeveer 5% een duurzame productie haalt. Andere berichtgeving over dezelfde bevindingen wijst op hetzelfde patroon: massale experimenten, minimale transformatie.
En de verklaring is veelzeggend: het probleem is niet het enthousiasme, of zelfs maar het vermogen: het probleem is dat de instrumenten zich niet vertalen in echte, operationele verandering.
Dit is geen adoptieprobleem. Het is een architectuurprobleem.
De ongemakkelijke paradox: iedereen gebruikt AI, maar er verandert niets
Binnen de meeste bedrijven bestaan er tegenwoordig twee realiteiten naast elkaar: aan de ene kant gebruiken werknemers voortdurend tools als ChatGPT. Ze stellen hun werk op, vatten het samen, bedenken het en versnellen het op een manier die natuurlijk en effectief aanvoelt.
Aan de andere kant hebben officiële AI-initiatieven van ondernemingen moeite om verder te komen dan zorgvuldig gecontroleerde pilots.
Dezelfde MIT-gerelateerde analyse beschrijft een steeds groter wordende ‘leerkloof’: individuen vinden snel waarde, maar organisaties slagen er niet in die waarde te integreren in workflows die er toe doen. Het resultaat is iets dat dicht bij ‘schaduw-AI’ ligt: mensen gebruiken wat werkt, terwijl bedrijven investeren in wat niet werkt.
Dat is geen weerstand tegen verandering.
Dat is een signaal.
De kernfout: een taalmodel behandelen als een besturingssysteem
De meeste verklaringen voor dit falen zijn gericht op de uitvoering: slechte gegevens, onduidelijke gebruiksscenario’s, gebrek aan training. Allemaal waar. Allemaal secundair.
Het echte probleem is eenvoudiger en veel fundamenteler: grote taalmodellen zijn ontworpen om tekst te voorspellen. Dat is het. Al het andere, van redeneren tot samenvatten, conversatie, enz., is een opkomende eigenschap van dat vermogen.
Maar bedrijven opereren niet als tekstreeksen. Ze functioneren als evoluerende systemen met toestand, geheugen, afhankelijkheden, prikkels en beperkingen.
Dit is de mismatch.
Zoals ik al eerder betoogde, dit is de belangrijkste architectonische fout van AI: LLM’s ‘zien’ de wereld niet. Ze handhaven geen persistente toestand. Ze leren niet van feedback uit de echte wereld, tenzij ze expliciet zijn ontworpen om dit te doen.
Ze genereren overtuigende taal over de werkelijkheid. Zij opereren daarbinnen niet.
Je kunt geen bedrijf runnen op basis van woordvoorspellingen
Dit leidt tot een patroon dat vertrouwd moet aanvoelen.
Vraag een LLM om:
- “Mijn omzet verhogen”
- “Ontwerp een go-to-market-strategie”
- “Teamprestaties verbeteren”
En je krijgt antwoord. Vaak een hele goede. Een gestructureerd, gearticuleerd en overtuigend antwoord. En bijna volledig losgekoppeld van het feitelijke systeem dat het zou moeten beïnvloeden.
Omdat een LLM geen pijplijn kan volgen, incentives kan beheren, CRM-gegevens kan integreren of zich kan aanpassen op basis van resultaten. Het kan een strategie beschrijven. Maar het kan er geen uitvoeren.
De bevindingen van MIT versterken dit punt: generatieve AI-tools zijn effectief voor flexibele, individuele taken, maar falen in bedrijfscontexten waar aanpassing, leren en integratie vereist zijn.
Met andere woorden: een LLM kan de memo schrijven. Maar het kan het bedrijf niet runnen.
Meer rekenkracht op het probleem gooien, lost het probleem niet op
De reactie van de industrie tot nu toe was voorspelbaar: bouw grotere modellen, implementeer meer infrastructuur, schaal alles. Maar schaal lost een ontwerpfout niet op. Als een systeem geen basis heeft in de realiteit, zullen meer parameters het geen basis geven. Als het geheugen ontbreekt, zullen meer tokens het geen geheugen geven. Als er geen feedbackloops zijn, zullen niet meer datacenters deze creëren.
Schaal versterkt wat bestaat. Het creëert niet wat er ontbreekt. En wat hier ontbreekt is niet meer taal. Het is meer wereld.
De volgende laag gaat niet over betere antwoorden
De volgende fase van zakelijke AI zal niet worden bepaald door betere chatinterfaces of krachtigere LLM’s. Het zal geheel door iets anders worden gedefinieerd: systemen die de status kunnen handhaven, in workflows kunnen integreren, van resultaten kunnen leren en onder beperkingen kunnen opereren.
Systemen die niet alleen tekst genereren, maar ook in echte omgevingen functioneren. Dit is de reden waarom de toekomst van AI in bedrijven niet alleen op LLM’s zal worden gebouwd, maar op architecturen die deze inbedden in rijkere werkelijkheidsmodellen.
Of, zoals ik in eerder werk heb betoogd, waarom wereldmodellen waarschijnlijk een fundamenteel vermogen zullen worden in plaats van een nicheconcept.
Zeggen wat velen al weten… maar zelden zeggen
Als dit vanzelfsprekend lijkt, komt dat omdat veel mensen binnen organisaties het al zien: zij hebben de pilots uitgevoerd. Ze hebben de demo’s gezien. Zij hebben de kloof ervaren. Maar het hardop zeggen is nog steeds ongemakkelijk.
Er is te veel momentum, te veel investeringen en te veel verhalen opgebouwd rond het idee dat het opschalen van LLM’s uiteindelijk alles zal oplossen. Dat zal niet gebeuren.
De keizer is niet alleen underdressed. Hij draagt helemaal de verkeerde kleding.
De echte kans
Dit is niet het einde van enterprise AI: het is het einde van een misvatting. Taalmodellen zijn geen bedrijfsarchitectuur: ze zijn een interfacelaag. Een krachtige, maar op zichzelf onvoldoende.
De bedrijven die dit als eerste begrijpen, zullen AI niet alleen beter inzetten: ze zullen iets fundamenteel anders bouwen.
En als dat gebeurt, voelt het opnieuw als magie.
Maar deze keer zal het geen illusie zijn.


