Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.
De AI ‘wapenwedloop’ is misschien meer een ‘arm-twist’
De grote AI Bedrijven vertellen ons dat AI binnenkort elk aspect van het bedrijfsleven in elke sector opnieuw zal vormgeven. Velen van ons vragen zich af wanneer dat daadwerkelijk zal gebeuren in de echte wereld, wanneer de zogenaamde “AI-start” zal plaatsvinden. Maar omdat er zoveel variabelen zijn, zoveel verschillende soorten organisaties, banen en werknemers, is er geen bevredigend antwoord. Bij gebrek aan hard bewijs vertrouwen we op anekdotes: succesverhalen van oprichters, influencers en early adopters die posten op X of TikTok.
Economen en investeerders willen net zo graag de ‘wanneer’-vraag beantwoorden. Ze willen weten hoe snel de effecten van AI zich zullen manifesteren, en hoeveel kostenbesparingen dat zal opleveren productiviteit groei die het zal genereren. Beleidsmakers zijn gefocust op de risico’s: hoeveel banen zullen verloren gaan, en welke? Wat zullen de stroomafwaartse effecten zijn op het sociale vangnet?
Business schools en adviesbureaus hebben zich tot onderzoek gewend om antwoorden op deze vraag te vinden. Een van de meest consequente recente inspanningen was a MIT-studie uit 2025waaruit bleek dat ondanks de uitgaven tussen de $30 miljard en $40 miljard aan generatieve AI, 95% van de grote bedrijven “geen meetbare impact op de winst-en-verliesrekening (winst en verlies) had gezien.”
Recenter onderzoek schetst een wat rooskleuriger beeld. A recent onderzoek van de Wharton School ontdekte dat drie van de vier bedrijfsleiders “een positief rendement op AI-investeringen rapporteerden, en 88% van plan was de uitgaven het komende jaar te verhogen.”
Mijn gevoel is dat de timing van de start van AI moeilijk te vatten is, omdat de adoptie zo ongelijkmatig is en sterk afhankelijk is van de toepassing van de AI. Softwareontwikkelaars zien bijvoorbeeld duidelijke efficiëntiewinsten door AI-codeeragenten, en retailers profiteren van slimmere chatbots voor de klantenservice die meer problemen automatisch kunnen oplossen.
Het hangt ook af van de cultuur van de organisatie. Bedrijven met duidelijke strategieën, goede data, enkele PhD’s en interne AI-enthousiastelingen boeken echte vooruitgang. Ik vermoed dat veel oudere, minder technologiegeoriënteerde bedrijven vast blijven zitten in de pilotmodus en moeite hebben om hun ROI te bewijzen.
Ander studies hebben aangetoond dat menselijke werknemers in de eerste fasen van de inzet veel tijd moeten investeren in het corrigeren of trainen van AI-instrumenten, wat de netto productiviteitswinst ernstig beperkt. Anderen laten zien dat werknemers in AI-forward organisaties wel substantiële productiviteitsverbeteringen zien, maar daardoor ambitieuzer worden en uiteindelijk meer werkenniet minder.
De MIT-onderzoekers hebben een interessante disclaimer bij hun onderzoeksresultaten opgenomen. Hun ontnuchterende bevindingen, zo merkten ze op, weerspiegelden niet de beperkingen van de AI-tools zelf, maar eerder het feit dat organisaties vaak jaren nodig hebben om hun mensen en processen aan te passen aan de nieuwe technologie.
Dus terwijl AI-bedrijven de steeds groeiende intelligentie van hun modellen voortdurend ophemelen, gaat het er uiteindelijk om hoe snel grote organisaties deze tools in het dagelijkse werk kunnen integreren. In die zin is de AI-revolutie meer een armtwist dan een wapenwedloop. De weg naar ROI loopt door mensen en cultuur. En dat menselijke knelpunt kan uiteindelijk bepalen wanneer de AI-industrie en haar financiers rendement gaan zien op hun enorme investeringen.
Uit een nieuwe benchmark blijkt dat AI er niet in slaagt het meeste digitale kluswerk te doen
AI-bedrijven blijven in hoog tempo slimmere modellen uitbrengen. Maar de belangrijkste manier van de industrie om die vooruitgang te bewijzen – benchmarks – geeft niet volledig weer hoe goed AI-agenten presteren bij projecten in de echte wereld. Een relatief nieuwe benchmark genaamd de Externe arbeidsindex (RLI) probeert die kloof te dichten door AI-agenten te testen op projecten die vergelijkbaar zijn met die van externe contractanten. Deze omvatten taken op het gebied van game-ontwikkeling, productontwerpen video-animatie. Sommige opdrachten, gebaseerd op daadwerkelijke contractbanen, zouden menselijke werknemers meer dan 100 uur kosten om te voltooien en zouden meer dan $ 10.000 aan arbeid kosten.
Op dit moment presteren enkele van de beste modellen in de branche niet erg goed op de RLI. In tests die eind vorig jaar werden uitgevoerd, konden AI-agenten, aangedreven door modellen van de beste AI-ontwikkelaars, waaronder OpenAI, Anthropic, Google en anderen, nauwelijks een van de projecten voltooien. De best presterende agent, aangedreven door het Opus 4.5-model van Anthropic, voltooide slechts 3,5% van de opdrachten. (Anthropic heeft sindsdien Opus 4.6 uitgebracht, maar is nog niet geëvalueerd op de RLI.)
De test plaatst de vraag naar de huidige toepasbaarheid van agenten in een ander licht, en kan enkele van de meest optimistische beweringen over de effectiviteit van agenten uit de AI-industrie temperen.
De vervelende ‘directeuren’ van Silicon Valley duiken opnieuw op, wat het Witte Huis en het Pentagon irriteert
Het Pentagon en het Witte Huis wel grote gek bij het veiligheidsbewuste AI-bedrijf Anthropic. Waarom? Omdat Anthropic niet wil dat zijn AI wordt gebruikt voor het richten op mensen door autonome drones, of voor massale surveillance van Amerikaanse burgers.
Anthropic heeft nu een Contract ter waarde van 200 miljoen dollar waardoor het gebruik van de Claude-chatbot en -modellen door federale uitzendkrachten mogelijk wordt gemaakt. Het was een van de eerste bedrijven die toestemming kreeg om met gevoelige overheidsgegevens te werken, en het eerste AI-bedrijf dat een gespecialiseerd model voor inlichtingenwerk bouwde. Maar het bedrijf hanteert al lange tijd duidelijke regels in zijn gebruikersrichtlijnen dat zijn modellen niet voor schade mogen worden gebruikt.
Het Pentagon is van mening dat het, na betaling voor de technologie, deze voor elke legale toepassing moet kunnen gebruiken. Maar het aanvaardbare gebruik van AI is anders dan dat van traditionele software. Het potentieel van AI voor autonomie maakt het van nature gevaarlijker, en de risico’s ervan nemen toe naarmate de strijd dichter bij de strijd komt.
Als het meningsverschil niet wordt opgelost, kan het contract van Anthropic met de regering mogelijk in gevaar komen. Maar het kan nog erger worden. Afgelopen weekend zei het Pentagon dat het overwoog om Anthropic te classificeren als een ‘toeleveringsketenrisico’, wat zou betekenen dat de regering Anthropic net zo betrouwbaar beschouwt als Huawei. Overheidscontractanten van allerlei aard zouden gedwongen worden om te stoppen met het gebruik van Anthropic.
De beperkingen van Anthropic op bepaalde defensiegerelateerde toepassingen worden uiteengezet in haar Grondweteen document dat de waarden en gedragingen beschrijft die de modellen moeten volgen. Claude, zo staat er, zou een ‘echt goede, wijze en deugdzame agent’ moeten zijn. “We willen dat Claude doet wat een diep en vakkundig ethisch persoon zou doen in de positie van Claude.” Voor critici in de regering-Trump vertaalt die taal zich naar een mandaat voor wakker worden.
De hele ophef grijpt terug naar 2018, toen Google het liet vallen Project Maven contract met de overheid nadat werknemers in opstand kwamen tegen het gebruik van Google-technologie om mensen in de strijd te targeten. Google werkt nog steeds samen met de overheid en heeft in de loop der jaren haar ethische richtlijnen verzacht.
De waarheid is dat technologiebedrijven niet meer zo vasthouden aan hun principes als vroeger. Velen hebben zich in een soort patronagerelatie met het huidige regime gevestigd, een relatief goedkope manier om MAGA-reactie te voorkomen en tegelijkertijd de aandeelhouders tevreden te houden. Antropisch lijkt op zijn manier een andere koers te varen, en kan daar financieel onder lijden. Maar op de langere termijn zou het bedrijf enig respect, vertrouwen en goodwill kunnen verdienen van veel consumenten en toezichthouders. Voor een bedrijf wiens product net zo krachtig en potentieel gevaarlijk is als consumenten-AI, zou dat veel kunnen betekenen.
Meer AI-dekking van Snel bedrijf:
- OpenAI, Google en Perplexity naderen goedkeuring om AI rechtstreeks voor de Amerikaanse overheid te hosten
- Nieuwe AI-modellen verliezen vrijwel onmiddellijk hun voorsprong
- Meta patenteert AI waarmee dode mensen berichten kunnen plaatsen vanuit het grote hiernamaals
- Deze 6 citaten van OpenClaw-maker Peter Steinberger verwijzen naar de toekomst van personal computing
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.



