Het Amerikaanse leger was in staat “maar liefst 1.000 doelen te treffen in de eerste 24 uur van zijn aanval op Iran” mede dankzij het gebruik van kunstmatige intelligentievolgens De Washingtonpost. Het leger heeft Claude gebruikt, de AI tool van Anthropic, gecombineerd met Palantir’s Maven-systeem, voor real-time targeting en doelprioritering ter ondersteuning van gevechtsoperaties in Iran en Venezuela.
Hoewel Claude nog maar een paar jaar oud is, is het vermogen van het Amerikaanse leger om het, of welke andere AI dan ook, te gebruiken niet van de ene op de andere dag ontstaan. Het effectieve gebruik van geautomatiseerde systemen is afhankelijk van een uitgebreide infrastructuur en bekwaam personeel. Het is alleen dankzij tientallen jaren van investeringen en ervaring dat de VS vandaag de dag AI in oorlogen kunnen gebruiken.
In mijn ervaring als wetenschapper internationale betrekkingen hij studeert strategische technologie aan Georgia Tech, en voorheen als inlichtingenofficier bij de Amerikaanse marine, Ik vind Dat digitale systemen zijn slechts zo goed als de organisaties die ze gebruiken. Sommige organisaties verspillen het potentieel van geavanceerde technologieën, terwijl andere organisaties technologische zwakheden kunnen compenseren.
Mythe en realiteit in militaire AI
Sciencefictionverhalen over militaire AI zijn vaak misleidend. Populaire ideeën over moordende robots en dronezwermen hebben de neiging de autonomie van AI-systemen te overschatten en de rol van de mens te onderschatten. Succes of mislukking in een oorlog hangt meestal niet af van machines, maar van de mensen die ze gebruiken.
In de echte wereld verwijst militaire AI naar een enorme verzameling verschillende systemen en taken. De twee hoofdcategorieën zijn geautomatiseerde wapens en beslissingsondersteunende systemen. Geautomatiseerde wapensystemen hebben tot op zekere hoogte de mogelijkheid om zelf doelen te selecteren of aan te vallen. Deze wapens zijn vaker het onderwerp van science fiction en de focus van flink debat.
Beslissingsondersteunende systemen vormen daarentegen nu de kern van de meeste moderne legers. Dit zijn softwareapplicaties die intelligentie- en planningsinformatie aan menselijk personeel leveren. Veel militaire toepassingen van AI, ook in de huidige en recente oorlogen in het Midden-Oostenzijn bedoeld voor beslissingsondersteunende systemen en niet voor wapens. Moderne gevechtsorganisaties vertrouwen op talloze digitale toepassingen voor inlichtingenanalyse, campagneplanning, gevechtsbeheer, communicatie, logistiek, administratie en cyberbeveiliging.
Claude is een voorbeeld van een beslissingsondersteunend systeem, geen wapen. Claude is ingebed in de Maven slim systeemop grote schaal gebruikt door militaire, inlichtingen- en wetshandhavingsorganisaties. Maven gebruikt AI-algoritmen om potentiële doelen te identificeren uit satelliet- en andere inlichtingengegevens, en Claude helpt militaire planners de informatie te sorteren en te beslissen over doelen en prioriteiten.
De Israëliër Lavendel en Evangelie systemen die in de Gaza-oorlog en elders worden gebruikt, zijn ook beslissingsondersteunende systemen. Deze AI-toepassingen bieden analytische en planningsondersteuning, maar uiteindelijk neemt de mens de beslissingen.
Onderzoeker Craig Jones legt uit hoe het Amerikaanse leger kunstmatige intelligentie gebruikt bij zijn aanval op Iran, en enkele van de problemen die voortvloeien uit het gebruik ervan.
De lange geschiedenis van militaire AI
In oorlogen zijn wapens met een zekere mate van autonomie gebruikt ruim een eeuw. Negentiende-eeuwse zeemijnen explodeerden bij contact. Duitse buzz-bommen in de Tweede Wereldoorlog werden gyroscopisch geleid. Richtende torpedo’s en hittezoekende raketten veranderen hun traject om manoeuvrerende doelen te onderscheppen. Veel luchtverdedigingssystemen, zoals het Israëlische Iron Dome en het Amerikaanse Patriot-systeem, bieden al lang volledig automatische modi.
Robotachtige drones werd wijd verspreid in de oorlogen van de 21e eeuw. Niet-geschroefde systemen voeren nu een verscheidenheid aan “saai, vies en gevaarlijk“taken te land, ter zee, in de lucht en in een baan om de aarde. Op afstand bestuurde voertuigen zoals de Amerikaanse MQ-9 Reaper of de Israëlische Hermes 900, die urenlang autonoom kunnen rondhangen, bieden een platform voor verkenningen en aanvallen. Strijders in de Oorlog tussen Rusland en Oekraïne hebben pionierswerk verricht in het gebruik van first-person view-drones als kamikazemunitie. Sommige drones vertrouwen op AI om doelen te verwerven, omdat elektronische storing controle op afstand door menselijke operators onmogelijk maakt.
Maar systemen die verkenningen en aanvallen automatiseren zijn slechts de meest zichtbare onderdelen van de automatiseringsrevolutie. Het vermogen om verder te kijken en sneller te slaan vergroot de informatieverwerkingslast voor militaire organisaties dramatisch. Dit is waar beslissingsondersteunende systemen een rol spelen. Als geautomatiseerde wapens de ogen en armen van een leger verbeteren, vergroten beslissingsondersteunende systemen de hersenen.
Koude Oorlog-tijdperk commando en controle systemen anticipeerden op moderne beslissingsondersteunende systemen zoals Israëls AI-gestuurde Tzayad voor gevechtsmanagement. Onderzoeksprojecten op het gebied van automatisering zoals de Amerikaanse Semi-Automatic Ground Environment, of SAGE, zorgde in de jaren vijftig voor belangrijke innovaties op het gebied van computergeheugen en interfaces. In de Amerikaanse oorlog in Vietnam, Iglo Wit verzamelde inlichtingengegevens in een gecentraliseerde computer voor het coördineren van Amerikaanse luchtaanvallen op Noord-Vietnamese aanvoerlijnen. Het Amerikaanse Defense Advanced Research Projects Agency strategisch computergebruik programma in de jaren tachtig stimuleerde de vooruitgang op het gebied van halfgeleiders en expertsystemen. Defensiefinanciering heeft oorspronkelijk de opkomst van AI mogelijk gemaakt.
Organisaties maken geautomatiseerde oorlogsvoering mogelijk
Geautomatiseerde wapens en beslissingsondersteunende systemen zijn afhankelijk van complementaire organisatorische innovatie. Van de Elektronisch slagveld van Vietnam naar de Luchtlandgevecht doctrine van de late Koude Oorlog en latere concepten van netwerkgerichte oorlogsvoeringhet Amerikaanse leger heeft dat gedaan ontwikkelde nieuwe ideeën en organisatieconcepten.
Bijzonder opmerkelijk is de opkomst van een nieuwe stijl van speciale operaties tijdens de Amerikaanse mondiale oorlog tegen het terrorisme. Op AI gebaseerde beslissingsondersteunende systemen werden van onschatbare waarde voor het opsporen van terroristische agenten, het plannen van invallen om hen te doden of gevangen te nemen, en het analyseren van de daarbij verzamelde informatie. Systemen als Maven werden essentieel voor deze stijl van terrorismebestrijding.
De indrukwekkende Amerikaanse manier van oorlog voeren die in Venezuela en Iran te zien zijn, is de vrucht van tientallen jaren van vallen en opstaan. Het Amerikaanse leger heeft complexe processen aangescherpt voor het verzamelen van inlichtingen uit vele bronnen, het analyseren van doelsystemen, het evalueren van aanvalsmogelijkheden, het coördineren van gezamenlijke operaties en het beoordelen van bomschade. De enige reden waarom AI gedurende de hele targetingcyclus kan worden gebruikt, is dat talloze menselijke medewerkers overal ter wereld werken om het draaiende te houden.
AI geeft aanleiding tot belangrijke zorgen over automatiseringsvooroordeelof de neiging van mensen om bij militaire doelwitten excessief gewicht te hechten aan geautomatiseerde beslissingen. Maar dit zijn geen nieuwe zorgen. Iglo Wit was vaak misleid door Vietnamese lokvogels. Een ultramoderne Amerikaanse Aegis-kruiser per ongeluk neergeschoten een Iraans vliegtuig in 1988. Fouten in de inlichtingendienst leidden ertoe dat Amerikaanse stealth-bommenwerpers per ongeluk de Chinese ambassade in Belgrado, Servië, in 1999.
Veel Iraakse en Afghaanse burgers zijn hierdoor omgekomen analytische fouten En culturele vooroordelen binnen het Amerikaanse leger. Recentelijk zijn er aanwijzingen dat er sprake is van een Tomahawk-kruisraket sloeg een meisjesschool grenzend aan een Iraanse marinebasis, waarbij ongeveer 175 mensen omkwamen, voornamelijk studenten. Deze doelgerichtheid zou het gevolg kunnen zijn van een falen van de Amerikaanse inlichtingendiensten.
Geautomatiseerde voorspellingen vereisen menselijk oordeel
De successen en mislukkingen van beslissingsondersteunende systemen in oorlog zijn meer te wijten aan organisatorische factoren dan aan technologie. AI kan organisaties helpen hun efficiëntie te verbeteren, maar AI kan ook vooroordelen binnen de organisatie versterken. Hoewel het verleidelijk kan zijn om Lavendel de schuld te geven van de buitensporige burgerdoden in de Gazastrook, lakse Israëlische regels van betrokkenheid waarschijnlijk belangrijker dan automatiseringsvooroordelen.
Zoals de naam al aangeeft, ondersteunen beslissingsondersteunende systemen de menselijke besluitvorming; AI vervangt geen mensen. Menselijk personeel speelt nog steeds een belangrijke rol bij het ontwerpen, beheren, interpreteren, valideren, evalueren, repareren en beschermen van hun systemen en gegevensstromen. Commandanten voeren nog steeds het bevel.
In economische termen, AI verbetert de voorspellingwat betekent dat er nieuwe gegevens worden gegenereerd op basis van bestaande gegevens. Maar voorspellen is slechts een onderdeel van de besluitvorming. Mensen maken uiteindelijk de oordelen die er toe doen over wat ze moeten voorspellen en hoe ze voorspellingen moeten gebruiken. Mensen hebben voorkeuren, waarden en verplichtingen met betrekking tot resultaten in de echte wereld, maar AI-systemen intrinsiek niet.
In mijn optiek betekent dit dat er daadwerkelijk sprake is van toenemend militair gebruik van AI mensen belangrijker in oorlogniet minder.
Jon R. Lindsay is universitair hoofddocent cybersecurity en privacy en internationale zaken aan de Universiteit van Amsterdam Georgisch Instituut voor Technologie.
Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.



