Het is moeilijk om de conclusie te vermijden dat de markt voor kunstmatige intelligentie en de daaraan verbonden industrieën zijn overmatig opgeblazen. In 2025 waren slechts vijf hyperscalers (Alphabet, Meta, Microsoft, Amazon en Oracle) goed voor een kapitaalinvestering van $399 miljardwat de komende jaren zal oplopen tot ruim $600 miljard per jaar. Gedurende de eerste negen maanden van vorig jaar was de reële bbp-groei in de VS hetzelfde 2,1%maar zou 1,5% zijn geweest zonder de bijdrage van AI-investeringen.
Deze afhankelijkheid is gevaarlijk. In een recente notitie van Deutsche Bank werd de vraag gesteld of deze zegen inderdaad een uitkomst zou kunnen zijn belwaarbij de historisch ongekende concentratie van de sector wordt opgemerkt, die nu ongeveer 35% van de totale Amerikaanse marktkapitalisatie voor zijn rekening neemt, waarbij de top 10 Amerikaanse bedrijven meer dan 20% van de waarde van de mondiale aandelenmarkt voor hun rekening nemen. Als een dergelijke investering geen enkel voordeel zou opleveren, zou dat een mislukking van ongekende proporties zijn.
In hun boek Macht en vooruitgangNobelprijswinnende economen Daron Acemoglu en Simon Johnson vertellen over de rampzalige mislukking van het Franse Panamakanaalproject aan het einde van de 19e eeuw. Duizenden investeerders, groot en klein, verloren hun fortuin, en 20.000 mensen die aan het project werkten, stierven zonder enig voordeel. Het probleem, zo schrijven Acemoglu en Simon, was dat de visie op vooruitgang niet iedereen omvatte – en het onvermogen om feedback van anderen op te nemen resulteerde in besluitvorming van slechte kwaliteit. Ze merken op dat ‘wat je met technologie doet, afhangt van de richting van de vooruitgang die je in kaart probeert te brengen en wat je als aanvaardbare kosten beschouwt.’
150 jaar later is een aanzienlijk deel van de Amerikaanse economie op dezelfde manier afhankelijk van een kleine groep grootse visionairs, ambitieuze investeerders en techno-optimisten. Hun vermogen om hun critici te negeren en degenen die de kosten van hun missie moeten dragen buitenspel te zetten, riskeert catastrofale gevolgen. Betrouwbare AI-systemen kunnen niet worden opgeroepen marketing magie. We moeten ervoor zorgen dat degenen die deze systemen bouwen, inzetten en ermee werken, inspraak kunnen hebben in de manier waarop we de voortgang van deze technologie sturen.
Wantrouwen en een algemeen gebrek aan optimisme
Uit de gegevens blijkt dat er dringend een nieuwe koers moet worden uitgezet. Zelfs een genereuze analyse van de markt voor generatieve AI-producten zou waarschijnlijk moeite hebben om aan te tonen hoe een fatsoenlijk rendement op de gigantische investering in kapitaal realistisch is. A recent rapport van MIT ontdekte dat ondanks de $30 miljard tot $40 miljard aan bedrijfsinvesteringen in GenAI, 95% van de organisaties nul rendement behaalt. Het is moeilijk voor te stellen dat een andere industrie zoveel kapitaal opbrengt, ondanks dat er zo weinig wordt geproduceerd. Maar dit lijkt de echte superkracht van Sam Altman te zijn, net als Brian Merchant uitgebreid gedocumenteerd.
Dit gaat gepaard met een aanzienlijk wantrouwen en een algemeen gebrek aan optimisme bij gewone mensen over het potentieel van deze technologie. Uit het meest uitgebreide mondiale onderzoek onder 48.000 mensen in 47 landen blijkt dat KPMG ontdekte dat 54% van de respondenten huiverig is om AI te vertrouwen. Ze willen ook meer regelgeving: 70% van de respondenten zegt dat regelgeving noodzakelijk is, maar slechts 43% is van mening dat de huidige wetten adequaat zijn. Het rapport concludeert dat de meest veelbelovende route naar het verbeteren van het vertrouwen in AI het versterken van waarborgen, regelgeving en wetten was om veilig AI-gebruik te bevorderen.
Dit staat uiteraard in schril contrast met het standpunt van de regering-Trump, die herhaaldelijk de regulering van de industrie heeft geformuleerd als een belemmering voor innovatie. Maar het tekort aan vertrouwen kan niet zomaar worden opgeheven. Het vormt een aanzienlijke structurele barrière voor de acceptatie en waardevolle inzet van opkomende technologieën.
Een van de belangrijkste conclusies van het MIT-rapport is dat de kleine groep bedrijven dit daadwerkelijk heeft gezien productiviteit De winsten uit generatieve AI-producten deden dit omdat “ze adaptieve, ingebedde systemen bouwen die leren van feedback.” Sterk gecentraliseerde beslissingen over inkoop zouden er waarschijnlijk toe leiden dat werknemers kant-en-klare producten moesten gebruiken die niet geschikt waren voor de bedrijfsomgeving en resultaten zouden genereren die werknemers wantrouwden, vooral voor taken met een hogere inzet, wat resulteerde in omzeilingen of afnemende gebruikscijfers. Het probleem is dat deze tools er niet in slagen om te leren en zich niet aan te passen. Op zijn beurt zijn er te weinig mogelijkheden voor leidinggevenden om die feedback te ontvangen of op zinvolle wijze te verwerken in de ontwikkeling en aanpassing van modellen.
Het verhaal van politici en mediacommentatoren dat de AI-industrie vol visionaire leiders zit, wijst onbedoeld op een belangrijke oorzaak van waarom deze producten falen. Vertrouwen in AI-systemen kan alleen worden verdiend als er zowel naar feedback wordt gezocht als ernaar wordt gehandeld – wat een aanzienlijke uitdaging is voor de hyperscalers, omdat hun fundamentele modellen minder goed in staat zijn zich aan te passen aan en te reageren op unieke en gevarieerde contexten. Tenzij we de ontwikkeling en het beheer hiervan decentraliseren, kunnen de voordelen ongrijpbaar blijven.
De mening van de arbeiders
Er liggen nuttige ideeën rond die kunnen helpen een ander pad van technologische vooruitgang te bewandelen. Het Human Technology Institute van de Technische Universiteit van Sydney gepubliceerd onderzoek over hoe werknemers worden behandeld als onzichtbare omstanders bij de uitrol van AI-systemen. Door middel van diepgaande, kwalitatieve consultaties met verpleegkundigen, winkelpersoneel en ambtenaren om feedback te vragen over geautomatiseerde systemen en hun impact op hun werk.
In plaats van een achterlijke of nutteloze houding ten opzichte van AI te tonen, hebben werknemers genuanceerde en constructieve bijdragen geleverd aan de impact op hun werkplekken. Werknemers in de detailhandel spraken bijvoorbeeld over de moeilijkheden van geautomatiseerde systemen die werknemers de macht ontnamen en hun discretie beperkten: “In tegenstelling tot een productielijn is de detailhandel een onvoorspelbare omgeving. Je hebt van die dingen die klanten worden genoemd en die een mooie, gestage stroom in de weg staan.”
Een verpleegkundige merkte op hoe “de toenemende uitrol van geautomatiseerde systemen en waarschuwingen ernstige alarmmoeheid onder verpleegkundigen veroorzaakt. Wanneer een alarm (AI-systeem) afgaat, hebben we de neiging dit te negeren of niet serieus te nemen. Of onmiddellijk terzijde te schuiven om het alarm te stoppen.”
Je zou kunnen denken dat grotere investeringen in dergelijke systemen het probleem van alarmmoeheid zouden aanpakken. Maar zonder de inbreng van de werknemers wordt dit gemakkelijk als een probleem over het hoofd gezien. Het resultaat is dat, zoals een ambtenaar het uitdrukte, op werkplekken waar kanalen voor feedback van werknemers ontbreken, een noodzakelijke kwaliteit van werknemers “het geschenk van de oplossing” was.
Traditioneel zou dit soort overleg en betrokkenheid plaatsvinden via werknemersorganisaties. Maar nu het vakbondspercentage in de VS onder de 10% zakt, wordt dit niet alleen een probleem voor werknemers, maar ook voor werkgevers, die weinig methoden overhouden om op zinvolle wijze met hun personeel om te gaan.
Sommige vakbonden lopen niettemin voorop in deze kwestie, en bij gebrek aan politiek leiderschap zou dit de beste hoop kunnen zijn om verandering teweeg te brengen. De AFL-CIO heeft een veelbelovende modelwet ontwikkeld om werknemers tegen te beschermen schadelijke AI-systemen. Het voorstel richt zich op het beperken van het gebruik van werknemersgegevens om modellen te trainen, en op het introduceren van wrijving in de automatisering van belangrijke beslissingen, zoals inhuren en schieten. Het benadrukt ook dat werknemers het recht moeten krijgen om te weigeren de richtlijnen van AI-systemen op te volgen – in essentie door het inbouwen van feedbackloops voor als de automatisering fout gaat. Het recht om te weigeren is een essentiële failsafe die ook een cultuur van kritische betrokkenheid bij technologie kan cultiveren en als basis voor vertrouwen kan dienen.
Bedrijven mogen de standpunten van werknemers negeren, maar werknemers kunnen zich uiteindelijk op andere manieren laten horen. Uit recente onderzoeken blijkt dat 31% van de werknemers dit toegeeft actief saboteren de AI-strategie van hun bedrijf, en voor jongere werknemers zijn de cijfers zelfs nog hoger. Zelfs bedrijven die er niet in slagen om feedback van werknemers te vragen, kunnen deze uiteindelijk toch ontvangen.
Onze huidige koers van technologische vooruitgang is gebaseerd op een beperkt begrip van expertise en stelt te veel vertrouwen in kleine aantallen zeer grote bedrijven. We moeten gaan luisteren naar de mensen die dagelijks met deze technologie werken om problemen in de echte wereld op te lossen. Deze decentralisatie van de macht is een noodzakelijke stap als we technologie willen die zowel betrouwbaar als effectief is.



