Het lijkt alsof we het tijdperk van zijn binnengegaan AI oorlogvoering dan de films waarschuwde ons altijd voor.
Een deel hiervan gebeurt, toegegeven, al jaren. Een groot deel van de oorlog wordt al via drones gevoerd. Legers over de hele wereld voeren nu hifi-simulaties uit om potentiële aanvallen te plannen, en sommige soldaten maken zelfs gebruik van virtual reality. Een nieuwe generatie defensietechnologiebedrijven strijdt om zijn stukje van het militair-industriële complex.
Maar nu is het duidelijk dat defensiefunctionarissen zich tot chatbots wenden voor serieuze gevechts- en militaire missies, waaronder operaties die tot doel hebben staatshoofden gevangen te nemen en zelfs uit te schakelen. Dit was eerder dit jaar het geval, toen de Verenigde Staten een operatie lanceerden neem Nicolás Maduro gevangende toenmalige president van Venezuela en nu federale gevangene. Dat was ook afgelopen vrijdag het geval, toen het Amerikaanse leger een grote aanval op het Iraanse regime lanceerde en de leider van het land, ayatollah Ali Khamenei, doodde.
Beide operaties betrokken Claudede reeks grote taalmodellen gemaakt door het grensverleggende AI-lab Anthropic.
Hoe zijn we hier terechtgekomen? Het Amerikaanse leger zoekt en ontwikkelt al tientallen jaren hightech-instrumenten. Moderne sensor- en surveillanceplatforms hebben het mogelijk gemaakt steeds meer gegevens te verzamelen en die gegevens op hun beurt te gebruiken als basis voor nieuwe algoritmische modellen. De exacte definitie van kunstmatige intelligentie is altijd hanteerbaar geweest, maar zelfs in de jaren 2000 waren onderzoeksgroepen als DARPA bezig met robot- en autonome voertuigprojecten. Militaire organisaties steunden ook vroege pogingen om machinaal leren te gebruiken.
De AI-push van het leger werd in 2017 zelfs nog meer geformaliseerd, toen het ministerie van Defensie Project Maven aankondigde, een poging bedoeld om militaire dataplatforms te stroomlijnen en een basis te creëren voor de inzet van algoritmen en andere geavanceerde technologieën, waaronder computervisie en objectdetectie, op het slagveld. Na interne weerstand en wijdverbreide protesten trok Google zich terug uit de bouw van Maven en Palantir biedt nu de primaire technologie voor de tool. In 2018 ook de Amerikaanse strijdkrachten gemaakt het Joint Artificial Intelligence Office om zijn werkzaamheden op het gebied van opkomende technologie te centraliseren. Dit werd later het Chief Digital and Artificial Intelligence Office, dat tot doel heeft de adoptie van AI in militaire takken te ‘versnellen’.
Wat dit moment zo griezelig maakt, is dat het leger dezelfde AI-instrumenten lijkt te gebruiken die gewone consumenten gebruiken, maar dan in veel gewelddadiger contexten. En omdat deze instrumenten zo bekend zijn, kun je je gemakkelijk voorstellen dat het leger ze op dezelfde nonchalante, snelle en responsieve manier gebruikt als wij. Misschien wel als internetgebruiker voorgesteldschreef iemand bij het Ministerie van Defensie eenvoudigweg aan Claude: “Claude, ontvoer de dictator van Venezuela… Maak geen fouten”, op vrijwel dezelfde manier waarop we het land vragen nog een e-mailantwoord uit te persen.
(Voor de goede orde: als ik Claude vraag naar zijn rol bij deze operaties, ontkent het elke betrokkenheid: “Ik heb niet geholpen bij dergelijke operaties”, vertelt mijn chatbot. “Ik ben Claude, een AI-assistent gemaakt door Anthropic. Ik heb geen operationele capaciteiten, ik onderneem geen acties in de wereld, en ik ben op geen enkele manier betrokken bij geopolitieke of geheime operaties.”)
Maar dat weten we wel, Claude was gebruikt bij recente operaties, zelfs als de AI waarschijnlijk iets veel complexers deed dan reageren op een onvoorbereide prompt. Er zijn veel vragen over hoe Claude precies werd gebruikt bij de operaties in Venezuela en Iran. Maar we weten wel dat Claude zeer populair is binnen het leger – en binnen de hele regering. Voormalige AI-functionarissen van het ministerie van Defensie en medewerkers van Palantir vertelde het mij vorige week dat de tool samenwerkt met Maven, het vlaggenschip AI-programma van het leger. We weten ook dat, tenminste tijdens de Maduro-operatie, toegang werd verkregen tot de technologie van Anthropic via een geheime dienst die via Palantir aan het leger werd aangeboden. Zeer waarschijnlijk was dit iets veel ingewikkelder dan simpelweg Claude vragen een aanvalsplan op te stellen en daarmee aan de slag te gaan.
Dit gaat niet weg. Ondanks de voortdurende inspanningen van de federale overheid om de technologie van Anthropic uit haar systemen te verwijderen, zijn er geen tekenen dat het bureau klaar is met LLM’s. OpenAI en xAI hebben ook grote DoD-contracten binnengehaald, en de afgelopen week hebben beide bedrijven overeenkomsten getekend waardoor hun technologie op geheime systemen kan worden gebruikt. (Het koppelen van een technologie van xAI of OpenAI aan systemen van het ministerie van Defensie kan net zo eenvoudig zijn als het verbinden ervan via een API, vertelt een voormalige medewerker van Palantir me.) Het DoD onderhoudt ook een speciale generatieve AI-bron genaamd GenAI.mil.
Het is niet verrassend waarom. Ik gebruik vaak chatbots, platforms zoals Claude en ChatGPT, om enigszins vervelende onderzoekstaken uit te voeren die ik liever niet zou doen, samen met talloze andere dingen die mij veel meer hebben gemaakt productief. Maar ze kunnen mij ook onzorgvuldiger maken, en ik weet hoe verleidelijk het is om het denken over te dragen aan een derde, geheel technologische partij. Dat maakt het des te zenuwachtiger om te bedenken dat het Amerikaanse leger dezelfde chatbots gebruikt op manieren die veel geheimzinniger en geopolitiek belangrijker zijn.


