Home Nieuws 20 seconden om een ​​militaire aanval goed te keuren; 1,2 seconden om...

20 seconden om een ​​militaire aanval goed te keuren; 1,2 seconden om een ​​zorgverzekeringsclaim te weigeren. De mens zit in de AI-lus. De mensheid is dat niet

5
0
20 seconden om een ​​militaire aanval goed te keuren; 1,2 seconden om een ​​zorgverzekeringsclaim te weigeren. De mens zit in de AI-lus. De mensheid is dat niet

In de eerste vierentwintig uur van de oorlog met Iran hebben de Verenigde Staten duizend doelen getroffen. Tegen het einde van de week bedroeg het totaal meer dan drieduizend – twee keer zoveel als in de ‘shock and awe’-fase van de invasie van Irak in 2003. volgens Pete Hegseth. Dit ongekende aantal stakingen werd mogelijk gemaakt door kunstmatige intelligentie. Het Amerikaanse Centrale Commando (CENTCOM) dringt aan dat mensen op de hoogte blijven van elke targetingbeslissing, en dat de AI er is om hen te helpen ‘snellere beslissingen te nemen’. Maar welke rol mensen precies kunnen spelen als de systemen in dit tempo werken, is onduidelijk.

Het Israëlische gebruik van AI-gestuurde targeting in zijn oorlog tegen Hamas kan enige inzichten bieden. Dat bleek uit een onderzoek van vorig jaar dat het Israëlische leger een AI-systeem genaamd Lavender had ingezet om vermoedelijke militanten in Gaza te identificeren. De officiële lijn is dat bij alle doelgerichte beslissingen sprake was van menselijke beoordeling. Maar volgens een van de operators van Lavender beperkten ze, toen de betrokken mensen het systeem gingen vertrouwen, hun eigen controles tot niets anders dan de bevestiging dat het doelwit een man was. “Ik zou voor elk doelwit twintig seconden investeren”, zei de telefoniste. “Ik had als mens geen toegevoegde waarde, behalve dat ik een stempel van goedkeuring was. Het scheelde veel tijd.”

Hetzelfde patroon heeft zich al in het bedrijfsleven voltrokken. In 2023, ProPublica onthuld dat Cigna, een van Amerika’s grootste zorgverzekeraars, een algoritme had ingezet om claims voor weigering te markeren. De artsen, die wettelijk verplicht waren hun klinische oordeel uit te oefenen, tekenden de beslissingen van het algoritme in batches af, waarbij ze gemiddeld 1,2 seconden aan elke zaak besteedden. Eén arts ontkende in één maand tijd meer dan 60.000 claims. “We klikken letterlijk en leggen het voor”, zei een voormalig Cigna-arts. “Het kost allemaal 10 seconden om 50 tegelijk te doen.”

Twintig seconden om een ​​aanval goed te keuren; 1,2 seconden om een ​​claim te weigeren. De mens zit in de lus. De mensheid is dat niet.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/creator-faisalhoq ue.png “imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/faisal-hoque.png”,”eyebrow” “headline” “Ready om te gedijen op het snijvlak van business, technologie en menselijkheid?”,”dek ‘Faisal Hoque’s boeken, podcast en zijn bedrijven geven leiders de raamwerken en platforms om doel, mensen, processen en technologie op één lijn te brengen, waardoor disruptie wordt omgezet in betekenisvolle, duurzame vooruitgang.’ Meer”,”ctaUrl”:https://faisalhoque.com”, “theme”:{“bg”:#02263c”, “text”:#ffffff”,”eyebrow”#9aa2aa”, subhed”#ffffff”, “buttonBg”:#ffffff”, “b uttonHoverBg”:#3b3f46″, “buttonText”:#000000″},”imageDesktopId”:91420512,”imageMobileId”:91420514,”shareable”:false,”slug””,”wpCssClasses””}}

Moeilijkheidsgraad door ontwerp

De romanschrijver Milan Kundera schrijft over het angstaanjagende gewicht van de confrontatie met de blijvende ernst van onze daden. Maar hoewel lichtheid aantrekkelijk lijkt in het licht van deze onmogelijk zware last, is het uiteindelijk ondraaglijk. Als we ons loskoppelen van de zwaarte van onze beslissingen, worden ze van substantie en betekenis beroofd.

Sommige dingen zijn zo belangrijk dat we het gewicht ervan zouden moeten voelen. Het zou moeten tijd nodig hebben om te beslissen iemand te doden of een zorgclaim af te wijzen. Het zou moeten Het is moeilijk om erachter te komen welke gebouwen je moet bombarderen. AI maakt deze beslissingen sneller en gemakkelijker, maar sommige beslissingen zouden moeilijk moeten zijn. En als AI het gewicht opheft, als het de last wegneemt van het nemen van beslissingen over wie leeft en wie sterft, is dat geen vooruitgang. Dit is morele degradatie.

AI belooft de last van moeilijk en cognitief veeleisend werk te verlichten – het maakt het werk lichter. Op veel terreinen is dat echte vooruitgang. Maar sommige dingen zijn zo belangrijk dat we het gewicht ervan zouden moeten voelen. Het zou moeten tijd nodig hebben om te beslissen iemand te doden of een zorgclaim af te wijzen. Het zou moeten Het is moeilijk om erachter te komen welke gebouwen je moet bombarderen. Bij dergelijke beslissingen heeft de moeilijkheid een functie: het is een feature, geen bug. Het is een mechanisme dat instellingen dwingt rekening te houden met wat ze doen. En als AI dat gewicht wegneemt, wordt de instelling niet efficiënter. Het wordt gevoelloos.

Als de mens die op de hoogte is slechts enkele seconden aan elke beslissing besteedt, wordt de vraag of het systeem autonoom is of door mensen wordt gecontroleerd grotendeels semantisch. Wij moeten erop aandringen mensheid ook in de lus. In gevallen als deze moet de mens daartoe de gelegenheid krijgen zijn menselijk, zelfs als dat betekent dat ze langzamer, minder nauwkeurig en minder efficiënt zijn. Dat zijn de kosten die we betalen voor iets dat absoluut noodzakelijk is: we hebben de mens nodig om het gewicht te voelen van de beslissingen die hij neemt, omdat moeilijkheden de wrijving veroorzaken die mensen doet stilstaan, vragen stelt en terugdringt.

Institutionele cultuur

Wanneer moeilijke beslissingen gemakkelijk worden, verandert de instelling zelf. Mensen stoppen met het stellen van vragen omdat er niets is dat de moeite waard is om in twijfel te trekken; het systeem heeft al besloten en de rol van de mens is om dit te bevestigen. De meningsverschillen nemen af ​​omdat afwijkende meningen wrijving vereisen, en die wrijving is weggewerkt. De verantwoordelijkheid wordt ondermijnd omdat iedereen weet dat het de computer is die de beslissingen neemt.

De Cigna-arts die in een maand tijd 60.000 claims ontkende, was niet wreed. Ze waren in een systeem geplaatst waarin het weigeren van een claim niet meer moeite kostte dan het klikken op een knop. Het systeem deed iets verraderlijkers dan het corrumperen van hun oordeel; het maakte het onnodig. Daarom is de zaak Cigna geen verhaal over één enkele slechte acteur. Het is veeleer een verhaal over wat er gebeurt met elke instelling die systematisch het gewicht van haar moeilijkste beslissingen wegneemt.

De kosten van het uithollen van de verantwoordelijkheid

Een uitgeholde verantwoordelijkheid brengt voor bedrijven kosten met zich mee die op drie plaatsen tot uiting komen.

In de eerste plaats de aansprakelijkheid. Een algoritme kan niet worden aangeklaagd, ontslagen of verantwoordelijk worden gehouden voor zijn fouten. De organisatie die het heeft ingezet kan dat wel. Stempeltoezicht is geen juridisch grijs gebied; het is een verplichting die wacht op de mobilisatie van advocaten.

Ten tweede: institutionele kwetsbaarheid. Wanneer mensen zich niet meer echt bezighouden met beslissingen, leren ze er ook niet meer van. Als de machine de zaken altijd goed lijkt te doen, ontwikkelt niemand het soort oordeel dat nodig is om te bepalen wanneer er daadwerkelijk iets mis is. Organisaties die mensen uit hun besluitvormingscircuits halen, worden afhankelijk van systemen die ze niet langer volledig begrijpen. En dit leidt tot broosheid juist op de momenten die om veerkracht vragen.

Ten derde: vertrouwen. Klanten, medewerkers en toezichthouders willen misschien weten of een AI een beslissing heeft genomen. Maar ze zullen zeker willen weten of iemand er echt verantwoordelijk voor is. Het antwoord is in te veel organisaties nee, en dat antwoord heeft diepgaande gevolgen voor de relaties van de organisatie met degenen aan wie zij verantwoording moet afleggen.

De gewichtstest

Voordat leiders AI gebruiken om welk besluitvormingsproces dan ook eenvoudiger te maken, moeten ze vier vragen stellen:

1. Welk institutioneel gedrag brengt de huidige moeilijkheid van dit besluit met zich mee – bijvoorbeeld controle, escalatie, afwijkende meningen – en wat zijn de kosten als deze verloren gaan?

2. Als er iets misgaat, kunnen we dan iemand identificeren die met de beslissing worstelde – of alleen iemand die op ‘goedkeuren’ klikte?

3. Hoe kunnen we weten of de mensen in dit proces rubberen stempels zijn geworden? Wat zouden we meten, en meten we het?

4. Als de mensen die door dit besluit worden getroffen, precies zouden weten hoe het tot stand is gekomen en hoeveel tijd de mens eraan heeft besteed, zou de instelling zich dan op haar gemak voelen om dat proces in het openbaar te verdedigen?

Deze vragen verschijnen niet in de implementatiechecklist van een AI-leverancier. Dat is precies waarom ze ertoe doen.

Conclusie

Er wordt ons verteld dat AI ons bevrijdt – van saai werk, van langzame processen, van de last van harde beslissingen. En vaak gebeurt dat ook. Maar niet elke last is een probleem dat moet worden opgelost. Soms zijn de lasten het punt. Het gewicht dat een commandant moet voelen voordat hij een aanval goedkeurt, de moeite die een arts doet voordat hij zorg ontzegt – dit zijn geen inefficiënties die kunnen worden weggeoptimaliseerd. Het zijn de mechanismen die instituties eerlijk houden over de macht die zij uitoefenen.

Organisaties die dat gewicht wegnemen, zullen uiteraard sneller en lichter zijn. Een tijdje kan het zelfs lijken alsof ze aan het winnen zijn. Maar deze organisaties zullen ook degenen zijn die te laat ontdekken dat de moeilijkheid de prijs is om degene te zijn die beslist – en op het moment dat een organisatie stopt met betalen, heeft het helemaal geen zin meer om te beslissen.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/creator-faisalhoq ue.png “imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/faisal-hoque.png”,”eyebrow” “headline” “Ready om te gedijen op het snijvlak van business, technologie en menselijkheid?”,”dek ‘Faisal Hoque’s boeken, podcast en zijn bedrijven geven leiders de raamwerken en platforms om doel, mensen, processen en technologie op één lijn te brengen, waardoor disruptie wordt omgezet in betekenisvolle, duurzame vooruitgang.’ Meer”,”ctaUrl”:https://faisalhoque.com”, “theme”:{“bg”:#02263c”, “text”:#ffffff”,”eyebrow”#9aa2aa”, subhed”#ffffff”, “buttonBg”:#ffffff”, “b uttonHoverBg”:#3b3f46″, “buttonText”:#000000″},”imageDesktopId”:91420512,”imageMobileId”:91420514,”shareable”:false,”slug””,”wpCssClasses””}}

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in