Bij een recente AI-top in New Delhi, Waarschuwde Sam Altman dat vroege versies van superintelligentie tegen 2028 zouden kunnen verschijnen AI kunnen worden ingezet om nieuwe ziekteverwekkers te creëren, en dat democratische samenlevingen actie moeten ondernemen voordat ze worden ingehaald door de technologie die ze hebben gebouwd. Deze zorgen worden breed gedeeld binnen de sector. Geoffrey Hinton, de Nobelprijswinnaar die bekend staat als ‘de peetvader van AI’, heeft dat wel gedaan waarschuwde dat het creëren van digitale wezens die intelligenter zijn dan wijzelf een reële existentiële bedreiging vormt. Mustafa Suleyman, CEO van Microsoft AI, wijdde een groot deel van zijn boek aan dit onderwerp De komende golf op het argument dat AI samensmelt met synthetische biologie zou de middelen om een dodelijke pandemie te veroorzaken binnen het bereik van één enkel individu kunnen brengen. Dit zijn geen waarschuwingen voor een verre toekomst. Vorige week was er een botsing over wie AI controleert en onder welke voorwaarden leidde tot een volledige ineenstorting van het bedrijf relatie met het Pentagon.
Wanneer politici en bedrijfsleiders dit soort kwesties proberen te begrijpen, komen ze vaak in de verleiding om naar de farmaceutische industrie te kijken voor een regelgevingsmodel. Senator Richard Blumenthal – een van de weinige wetgevers die actief aandringt op zinvolle AI-regulering –heeft voorgesteld dat de manier waarop de Amerikaanse overheid de farmaceutische industrie reguleert als model kan dienen voor AI-toezicht. De analogie is intuïtief logisch. Het farmaceutische model laat zien dat strikte licentieverlening en toezicht op potentieel gevaarlijke opkomende technologieën bedreigingen kunnen beperken zonder onnodige beperkingen op te leggen aan innovatie.
De instinctieve aantrekkingskracht van deze aanpak beperkt zich niet tot wetgevers. Veel bedrijven passen dezelfde logica intern toe – al dan niet bewust – bij het beheersen van AI-risico’s door middel van fase-gate reviews, testen vóór de implementatie en monitoring na de lancering. Met andere woorden: het farmaceutische model is al het de facto bestuurskader voor een groot deel van de sector. Het probleem is dat dit het verkeerde raamwerk is – en dat de verschillen niet alleen technisch maar ook existentieel zijn.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/creator-faisalhoq ue.png “imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/faisal-hoque.png”,”eyebrow” “headline” “Ready om te gedijen op het kruispunt van zakenleven, technologie en menselijkheid? “,”dek ‘Faisal Hoque’s boeken, podcast en zijn bedrijven bieden leiders de raamwerken en platforms om doel, mensen, processen en technologie op één lijn te brengen, waardoor disruptie wordt omgezet in betekenisvolle, duurzame vooruitgang.’ Meer”,”ctaUrl”:https://faisalhoque.com”, “theme”:{“bg”:#02263c”, “text”:#ffffff”,”eyebrow”#9aa2aa”, subhed”#ffffff”, “buttonBg”:#ffffff”, “b uttonHoverBg”:#3b3f46″, “buttonText”:#000000″},”imageDesktopId”:91420512,”imageMobileId”:91420514,”shareable”:false,”slug””,”wpCssClasses””}}
Drie disanalogieën die er toe doen
Farmaceutische regulering werkt omdat de toetredingsdrempels hoog zijn, het product fysiek en controleerbaar is, en de ontwikkelingscyclus langzaam genoeg is om toezicht bij te houden. Geen van deze voorwaarden geldt voor AI.
Ten eerste zijn de toetredingsdrempels heel verschillend. Het op de markt brengen van een nieuw medicijn kost gemiddeld 1,1 miljard dollar. volgens een onderzoek uit 2020 gepubliceerd in de Tijdschrift van de American Medical Association. Alleen al de infrastructuur – laboratoria, klinische proefnetwerken, productiefaciliteiten – beperkt de productie tot een relatief klein aantal identificeerbare bedrijven die toezichthouders kunnen controleren. AI kent geen gelijkwaardige wrijving. Geschikte modellen kunnen voor een fractie van die kosten worden gebouwd, afgestemd op consumentenhardware en wereldwijd ingezet vanaf een laptop. Het universum van actoren dat een toezichthouder zou moeten volgen, bestaat niet uit een handvol identificeerbare bedrijven; het is potentieel iedereen, waar dan ook.
Ten tweede is een farmaceutisch product fysiek. Voor de productie ervan zijn grondstoffen, gespecialiseerde apparatuur en distributielogistiek nodig. Dit alles zorgt voor wrijving die toezichthouders kunnen uitbuiten door toezichtcontrolepunten op te leggen. Maar code kent zo’n wrijving niet. Eenmaal vrijgegeven kunnen de gewichten van een AI-model nummer voor nummer worden gekopieerd en veel sneller over de grenzen heen worden gedeeld dan welk fysiek wapen of industrieel systeem dan ook. De marginale kosten van replicatie zijn feitelijk nul. En je kunt software niet herinneren zoals je een besmet medicijn herinnert. Als het eenmaal in het wild is, blijft het in het wild.
Zelfs mogelijkheden die puur via toegang tot de cloud worden geleverd, zijn kwetsbaar voor replicatie en dus voor het doorbreken van bedrijfs- of regelgevende vangrails. De afgelopen maand maakte Anthropic bekend dat drie Chinese AI-laboratoria – DeepSeek, Moonshot en MiniMax – 24.000 accounts hadden gebruikt om meer dan 16 miljoen uitwisselingen met Claude te genereren. waarbij de meest geavanceerde mogelijkheden worden geëxtraheerd via een techniek die destillatie wordt genoemd. De Chinese laboratoria hoefden niet in de toeleveringsketen te infiltreren of dure fabrieken te bouwen. Ze hadden alleen API-toegang en zorgvuldig opgestelde aanwijzingen nodig, gerouteerd via proxynetwerken die ontworpen waren om detectie te omzeilen. Er bestaat geen farmaceutisch equivalent van deze repliceerbaarheid.
De laatste cruciale disanalogie is snelheid. De farmaceutische goedkeuringspijplijn gaat ervan uit dat een product jaren van gecontroleerde tests zal ondergaan voordat het het publiek bereikt. Maar AI-modellen evolueren op softwaretijdlijnen. De mogelijkheden verbeteren niet alleen door hardwareverbeteringen, maar ook door software-updates, nieuwe trainingsmethoden en frequente modelreleases die in weken in plaats van jaren betekenisvolle sprongen kunnen opleveren. Anthropic verscheepte bijvoorbeeld binnen tien weken twee grote Claude-releases. De iteratiecyclus is zo snel dat tegen de tijd dat een goedkeuringsproces in farmaceutische stijl een model zou kunnen evalueren, dat model al achterhaald zou zijn – vervangen door iets veel krachtigers waarvoor het evaluatieproces nog niet eens was begonnen.
Waarom “testen, implementeren, monitoren” niet werkt
Het probleem beperkt zich niet tot de overheid. Hetzelfde farmaceutische denken dat de regelgevingskaders verstoort, heeft wortel geschoten in organisaties – en laat hen om dezelfde redenen blootstaan.
De risico’s van het farmaceutische type zijn bekend: een product kan schadelijke bijwerkingen hebben, dus u test het voordat u het in gebruik neemt, controleert het daarna en trekt het terug als er iets misgaat. Zelfs zonder externe toezichthouder passen veel bedrijven deze logica intern toe op AI, waarbij ze risico’s beheersen via de bekende middelen van stage-gate reviews, testen vóór de implementatie en monitoring na de lancering. Het voelt verantwoordelijk. Het voelt voldoende.
Dit is precies het gevaar.
Natuurlijk zijn stage-gate reviews en pre-implementatietests niet waardeloos. Ze ontdekken echte fouten, dwingen discipline af en creëren een papieren spoor dat blijk geeft van due diligence jegens besturen en toezichthouders. Elke organisatie die ze heeft geïmplementeerd, is beter af dan een organisatie die niets heeft gedaan. Maar deze raamwerken creëren een vals gevoel van dekking. Het risico dat ze beheersen, is het risico waarvoor ze zijn ontworpen: productdefecten, nadelige effecten, fouten in de kwaliteitscontrole. Het risicoprofiel van AI heeft een geheel andere vorm. Het wordt gedefinieerd door het potentieel voor onomkeerbaarheid, snelle proliferatie en misbruik. Niet elke AI-gestuurde uitkomst zal deze risico’s met zich meebrengen. Maar in tegenstelling tot een defect product kunt u geen terugroepactie uitvoeren zodra de schade is aangericht.
Deze combinatie van potentiële bedreigingen betekent dat de bekende toolkit van risicobeheer eenvoudigweg niet past – en organisaties die geloven dat dit wel het geval is, accepteren risico’s die ze niet in kaart hebben gebracht. Juist om deze uitdagingen het hoofd te bieden, hebben wij ontwikkeld de OPEN- en CARE-frameworks voor het beheren van AI-innovatie en -risico’s. Met name het CARE-framework biedt een gestructureerde methodologie voor het beheersen van AI-risico’s en vormt de basis voor de aanbevelingen die volgen.
Bouw governance op voor AI-risico’s
Het CARE-framework werkt via vier fasen: Catastroferen, identificeren van wat er mis kan gaan; Beoordeel en prioriteer deze risico’s; Reguleren, controles implementeren; en Exit, plannen voor het geval dat deze controles mislukken. Toegepast op de AI-blootstelling van uw organisatie, wijst het raamwerk op vijf onmiddellijke acties.
1. Breng uw schaduw-AI-blootstelling onder de aandacht. Stel uw directe ondergeschikten één vraag: welke AI-tools gebruikt u die niet door het bedrijf zijn geleverd? De antwoorden zullen u vertellen hoe groot de kloof is tussen de AI die uw organisatie officieel gebruikt en de AI waar uw mensen daadwerkelijk op vertrouwen.
2. Breng uw onomkeerbaarheidspunten in kaart – en uw terugvalpunten. Identificeer de AI-afhankelijke processen waarbij een storing onomkeerbaar of zeer schadelijk zou zijn, zoals geautomatiseerde klantcommunicatie, AI-ondersteunde code die naar productie wordt gepusht, algoritmische inhuren schermen. Vraag of uw huidige beveiliging ervan uitgaat dat u fouten kunt opsporen en corrigeren voordat ze de buitenwereld bereiken. Als dat toch het geval is, moet u ze opnieuw ontwerpen en expliciete noodprocedures opstellen voor als ze toch falen.
3. Vergrendel uw gegevensblootstelling. Elke AI-tool waarmee uw organisatie in aanraking komt, is een datapijplijn die in beide richtingen loopt. Classificeer uw gegevens in lagen (openbaar, intern, vertrouwelijk, beperkt) en breng in kaart welke AI-tools voor elke laag zijn geautoriseerd. Controleer uw leveranciersovereenkomsten op trainingsgegevensclausules. Op het moment dat eigendomsgegevens een systeem van derden binnenkomen, is uw vermogen om deze te herinneren verdwenen.
4. Rode team voor misbruik, niet alleen voor een defect. Rood team voor storing vraagt: “Wat als dit kapot gaat?” Red-teaming voor misbruik vraagt: “Wat als dit precies werkt zoals bedoeld en iemand het voor het verkeerde doel gebruikt?” Zoals de Catastrofize-fase van het CARE-framework benadrukt, heb je beide nodig.
5. Wijs duidelijk uitvoerend eigenaarschap toe. Geen van de bovenstaande zaken doet er toe als de verantwoording over de commissies verspreid is. Wijs één leidinggevende aan die het AI-risico draagt, net zoals uw CFO het financiële risico draagt. Die persoon heeft autoriteit, budget en een directe lijn naar het bestuur nodig.
De echte inzet
Regulering op farmaceutisch vlak is al tientallen jaren een van de meest succesvolle oplossingen in het bedrijfsleven: een raamwerk dat het publiek beschermt zonder de industrie te wurgen. Maar het model is onvoldoende voor AI.
Op regeringsniveau streven serieuze mensen naar serieuze oplossingen. Sam Altman’s oproep op de top van New Delhi voor een internationaal regelgevend orgaan naar het voorbeeld van de Internationale Organisatie voor Atoomenergie weerspiegelt een duidelijker beeld van wat voor soort technologie dit is – een technologie die toezichtkaders vereist die in overeenstemming zijn met het werkelijke risicoprofiel ervan, en geen modellen die zijn geleend van sectoren die de kenmerken ervan niet delen.
Bedrijfsleiders moeten hetzelfde pad volgen. De categorie problemen waarmee overheden op internationaal niveau worstelen, is dezelfde categorie problemen waarmee u binnen uw organisatie worstelt. Ontwerp uw bestuur dienovereenkomstig: voor de technologie die u daadwerkelijk heeft, en niet voor de technologie waarmee u te maken zou willen hebben.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/creator-faisalhoq ue.png “imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/faisal-hoque.png”,”eyebrow” “headline” “Ready om te gedijen op het kruispunt van zakenleven, technologie en menselijkheid? “,”dek ‘Faisal Hoque’s boeken, podcast en zijn bedrijven bieden leiders de raamwerken en platforms om doel, mensen, processen en technologie op één lijn te brengen, waardoor disruptie wordt omgezet in betekenisvolle, duurzame vooruitgang.’ Meer”,”ctaUrl”:https://faisalhoque.com”, “theme”:{“bg”:#02263c”, “text”:#ffffff”,”eyebrow”#9aa2aa”, subhed”#ffffff”, “buttonBg”:#ffffff”, “b uttonHoverBg”:#3b3f46″, “buttonText”:#000000″},”imageDesktopId”:91420512,”imageMobileId”:91420514,”shareable”:false,”slug””,”wpCssClasses””}}
Nieuwsbron



