Home Nieuws Uw AI-initiatief mislukt mogelijk omdat u het meet als een verouderd bedrijf

Uw AI-initiatief mislukt mogelijk omdat u het meet als een verouderd bedrijf

8
0
Uw AI-initiatief mislukt mogelijk omdat u het meet als een verouderd bedrijf

In operationele beoordelingen en bestuurskamers zie ik steeds hetzelfde patroon: leiderschap vraagt ​​om nauwkeurigheid, teams leveren de cijfers en veelbelovende resultaten AI inspanningen worden beoordeeld als onvoldoende presterend voordat de organisatie daadwerkelijk heeft geleerd wat er nodig is om ze waar te maken. Dan trekt iemand de stekker eruit, schroeft de investering terug, of laat het initiatief stilletjes aflopen.

Soms hebben ze gelijk. Maar vaak hebben ze gewoon de verkeerde test gebruikt.

Het probleem is niet dat leiders zich druk maken over meten. Een sterke meetdiscipline is precies wat organisaties die AI opschalen onderscheidt van organisaties die pilots verzamelen. Het probleem is dat veel leiders een scorekaart voor volwassen bedrijven toepassen op werk dat nog niet volwassen is – en het resultaat is een voorspelbare verkeerde interpretatie.

De scorekaart komt niet overeen

Denk eens na over de manier waarop de meeste gevestigde bedrijven succes beoordelen: ROI binnen een bepaald tijdsbestek, kostenreductie, efficiëntie van het personeelsbestand. Dit zijn verstandige maatstaven voor stabiele activiteiten. Als ze te vroeg worden gebruikt bij opkomend AI-werk, creëren ze geen discipline. Ze creëren valse negatieven.

AI-initiatieven komen niet op dezelfde tijdlijn tot ontwikkeling als een productvernieuwing of een kostenbesparingsprogramma. De eerste waarde komt vaak naar voren in de vorm van snellere beslissingen, minder nabewerking of verbeterde gegevenskwaliteit, en niet als regelitem in de winst-en-verliesrekening van het volgende kwartaal. Het opnieuw ontwerpen van workflows – het echte werk van het integreren van AI in de manier waarop mensen daadwerkelijk werken – is traag, ontwrichtend en onzichtbaar voor traditionele financiële rapportage totdat dit niet meer het geval is.

Wanneer leiders conventionele ROI eisen over een horizon van één tot drie jaar, reageren teams rationeel: ze optimaliseren voor wat meetbaar is. Ze streven naar efficiencywinst op de korte termijn, vermijden het rommeligere werk van het herontwerpen van processen en bouwen pilots die zijn ontworpen om een ​​financiële evaluatie te overleven in plaats van iets te leren. Het is geen kwade trouw. Het is een logisch antwoord op de prikkels die de scorekaart creëert.

Het resultaat is wat nu ‘proof-of-concept-vermoeidheid’ wordt genoemd: organisaties die tientallen AI-experimenten uitvoeren, waarvan er maar weinig ooit in productie komen. Gartner voorspelt dat 30% van de generatieve AI-projecten eind 2025 zal worden stopgezet na proof of concept. Dat is niet in de eerste plaats een technologisch faalpercentage. Het is een percentage mislukte metingen.

Vier vormen van waarde die buiten de scorecard vallen

Wanneer organisaties verouderde statistieken toepassen op AI-werk, verdwijnen er consequent vier dingen uit het kader.

Leerwaarde. Vroege AI-initiatieven zouden organisatorische kennis moeten genereren – over welke processen daadwerkelijk AI-ready zijn, waar de dataproblemen liggen, welke teams veranderingen kunnen absorberen en welke niet. Niets daarvan verschijnt op een standaard ROI-dashboard. Als het leren niet wordt bijgehouden, wordt het niet gewaardeerd. Uiteindelijk gebeurt het niet meer.

Adoptie werkelijkheid. Een model dat goed presteert in een gecontroleerde pilot en faalt op het moment van implementatie is geen technologisch probleem. Het is een meetontwerpprobleem: de pilotcriteria omvatten niet de mensen die het daadwerkelijk zouden gebruiken. De gezondheidszorg staat vol met voorbeelden: AI-tools die worden geëvalueerd op basis van administratieve statistieken die vervolgens instorten wanneer artsen ze tegenkomen in echte workflows. De benchmark heeft de belangrijkste variabele weggelaten.

Workflow-waarde. Uit onderzoek van McKinsey blijkt dat het herontwerp van de workflow – en niet de nauwkeurigheid van het model – de grootste drijvende kracht achter de EBIT-impact van AI is. Maar het opnieuw ontwerpen van workflows is duur en ontwrichtend. Wanneer leiders AI meten aan de hand van efficiëntiedoelstellingen op de korte termijn, hebben teams alle reden om dit over te slaan. De snellere weg naar een verdedigbaar aantal is een beperkte pilot die vrijwel niets bewijst over de vraag of AI daadwerkelijk de manier waarop het bedrijf opereert kan veranderen.

Vermogenswaarde. Organisaties die steeds meer rendement uit AI halen, ontwikkelen in de loop van de tijd een intern oordeel – over waar AI helpt en waar niet, en hoe ze het kunnen integreren zonder de menselijke verantwoordelijkheid te verliezen. Dat blijkt niet uit de kostenbesparingen in het eerste jaar. Het blijkt jaren later een concurrentievoordeel te zijn. Uit onderzoek van MIT Sloan bleek dat organisaties die hun KPI’s updaten om weer te geven hoe AI waarde creëert, drie keer zoveel kans hadden op betekenisvolle financiële voordelen dan organisaties die dat niet deden. De metrische verandering kwam vóór het financiële gewin.

Metrieken zijn niet neutraal

Dit is het onderdeel dat vaak verloren gaat in gesprekken over de nauwkeurigheid van metingen: de meetgegevens die u kiest, geven aan wat u werkelijk waardeert.

Wanneer leiderschap de traditionele ROI als de primaire standaard voor een AI-initiatief stelt, creëren ze niet alleen een raamwerk. Ze vertellen het team wat belangrijk is. En als het om een ​​kortetermijncijfer gaat, zullen teams daarop bouwen. U krijgt de uitkomst die uw scorekaart beloont, wat misschien niets te maken heeft met de transformatie die u naar eigen zeggen wilde.

Ruim 40% van de bedrijven geeft aan moeite te hebben met het definiëren of meten van de impact van hun AI-initiatieven, en minder dan de helft maakt überhaupt gebruik van AI-specifieke KPI’s. Dat is geen dataprobleem. Het is een leiderschapsprobleem. Als de mensen die de meetstandaard vaststellen hun denken over hoe de waarde van AI in een vroeg stadium eruit ziet, niet hebben bijgewerkt, zal geen enkele analytische capaciteit dit later kunnen oplossen.

De vragen die de moeite waard zijn om mee te zitten

Ik ben niet tegen meten. Ik pleit voor metingen die passen bij de fase van het werk.

Een paar vragen: Zijn de meetgegevens die u op dit initiatief toepast dezelfde als die u zou gebruiken om een ​​volwassen bedrijfsonderdeel te evalueren? Zo ja, waarom? Wat zou je in het eerste jaar moeten zien om te weten dat je aan iets echts toewerkt, zelfs als de traditionele ROI nog niet zichtbaar is? Optimaliseert uw team om te leren, of voor een aantal dat een budgetherziening zal overleven?

Het doel is niet zachtere normen. Het zijn slimmere. Er is een reëel verschil tussen een initiatief dat echt leert en schaalvergroting genereert, en een initiatief dat theater produceert dat elk kwartaal wordt beoordeeld. Een goede meting onderscheidt deze twee dingen.

De verkeerde scorekaart interpreteert niet alleen de AI-waarde verkeerd. Het traint de organisatie om er minder van te produceren.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in