Ik heb de de afgelopen dagen hebben we AI-bedrijven gevraagd mij ervan te overtuigen dat de vooruitzichten voor AI-veiligheid zijn niet gedimd. Nog maar een paar jaar geleden leek het erop dat er universele overeenstemming bestond tussen de partijen bedrijven, wetgeversen het grote publiek dat serieuze regulering van en toezicht op AI niet alleen noodzakelijk, maar ook onvermijdelijk was. Mensen speculeerden over internationale instanties die regels zouden opstellen om te garanderen dat AI serieuzer zou worden behandeld dan andere opkomende technologieën, en dat dit op zijn minst obstakels zou kunnen vormen voor de gevaarlijkste implementaties ervan. Bedrijven beloofden veiligheid voorrang te geven boven concurrentie en winst. Terwijl doomers nog steeds dystopische scenario’s bedachten, vormde zich een mondiale consensus om de risico’s van AI te beperken en tegelijkertijd de vruchten ervan te plukken.
De gebeurtenissen van de afgelopen week hebben deze hoop een zware klap gegeven, te beginnen met de bittere vete tussen het Pentagon en Anthropic. Alle partijen zijn het erover eens dat het bestaande contract tussen de twee – op aandringen van Anthropic – specificeerde dat het ministerie van Defensie (dat zichzelf nu treffend het ministerie van Oorlog noemt) de Claude AI-modellen van Anthropic niet zal gebruiken voor autonome wapens of massale surveillance van Amerikanen. Nu wil het Pentagon deze rode lijnen uitwissen, en de weigering van Anthropic heeft niet alleen geresulteerd in het einde van zijn contract, maar heeft ook minister van Defensie Pete Hegseth ertoe aangezet om het bedrijf aangeven een supply chain-risico, een aanduiding die overheidsinstanties verhindert zaken te doen met Anthropic. Zonder in te gaan op contractbepalingen en de persoonlijke dynamiek tussen Hegseth en Anthropic CEO Dario Amodei, lijkt het erop dat het leger vastbesloten is weerstand te bieden aan alle beperkingen op de manier waarop het AI gebruikt, tenminste binnen de grenzen van de legaliteit – volgens zijn eigen definitie.
De grotere vraag lijkt te zijn hoe we op het punt zijn gekomen waarop het vrijgeven van dodelijke robotdrones en bommen die menselijke doelen identificeren en elimineren in het gesprek terechtkwam als iets dat het Amerikaanse leger zelfs maar zou overwegen. Heb ik het internationale debat gemist over de voordelen van het creëren van zwermen dodelijke autonome drones die oorlogsgebieden scannen, grenzen patrouilleren of oppassen voor drugssmokkelaars? Hegseth en zijn aanhangers klagen over de absurditeit van particuliere bedrijven die beperken wat het leger kan doen. Ik denk dat het gekker is dat er een eenzaam bedrijf nodig is dat existentiële sancties riskeert om een potentieel oncontroleerbare technologie te stoppen. Hoe dan ook betekent het gebrek aan internationale overeenkomsten dat elke geavanceerde militie AI in al zijn vormen moet gebruiken, simpelweg om zijn tegenstanders bij te houden. Op dit moment lijkt een AI-wapenwedloop onvermijdelijk.
De risico’s reiken veel verder dan het leger. Overschaduwd door het Pentagon-drama werd een verontrustende mededeling Anthropic geplaatst op 24 februari. Het bedrijf zei dat het wijzigingen aanbrengt in zijn systeem voor het beperken van catastrofale risico’s van AI, genaamd het Responsible Scaling Policy. Het was een belangrijk uitgangspunt voor Anthropic, waarin het bedrijf beloofde zijn AI-modelreleaseschema te koppelen aan zijn veiligheidsprocedures. Het beleid stelde dat modellen niet mogen worden gelanceerd zonder vangrails die gebruik in het slechtste geval voorkomen. Het fungeerde als een interne stimulans om ervoor te zorgen dat de veiligheid niet werd verwaarloosd in de haast om geavanceerde technologieën te lanceren. Nog belangrijker was dat Anthropic hoopte dat het overnemen van het beleid andere bedrijven zou inspireren of beschamen om hetzelfde te doen. Het noemde dit proces de “race naar de top.” De verwachting was dat het belichamen van dergelijke principes zou helpen bij het beïnvloeden van sectorbrede regelgeving die grenzen stelt aan de chaos die AI zou kunnen veroorzaken.
In eerste instantie leek deze aanpak veelbelovend. DeepMind en OpenAI namen aspecten van het raamwerk van Anthropic over. Meer recentelijk, toen de investeringsdollars explosief toenamen, de concurrentie tussen de AI-laboratoria toenam en het vooruitzicht op federale regulering steeds verder weg leek te lijken, gaf Anthropic toe dat zijn Responsably Scaling Policy tekortschoot. De drempels zorgden niet voor de consensus over de risico’s van AI waarop zij hoopten. Zoals het bedrijf in een blogpost opmerkte: “De beleidsomgeving is verschoven in de richting van het prioriteren van AI-concurrentievermogen en economische groei, terwijl veiligheidsgerichte discussies op federaal niveau nog betekenisvolle grip moeten krijgen.”
Ondertussen is de concurrentie tussen AI-bedrijven moordender geworden. In plaats van een race naar de top lijkt de AI-rivaliteit meer op een kale versie van King of the Mountain. Toen het Pentagon Anthropic verbannen, haastte OpenAI zich om het gat op te vullen met een eigen contract voor het Ministerie van Defensie. Sam Altman, CEO van OpenAI, stond erop dat hij zijn overhaaste overeenkomst met het Pentagon had gesloten om de druk op Anthropic te verlichten, maar Amodei had daar niets van. “Sam probeert onze positie te ondermijnen terwijl hij deze lijkt te steunen”, zei Amodei in een interview interne notitie. “Hij probeert het voor de admin beter mogelijk te maken om ons te straffen door onze publieke steun te ondermijnen.” (Amodei verontschuldigde zich later voor zijn toon in het bericht.)

