Home Nieuws AI zou de VS een dodelijk voordeel kunnen geven in de oorlog...

AI zou de VS een dodelijk voordeel kunnen geven in de oorlog in Iran, maar er zijn gevaren | Wetenschaps-, klimaat- en technologienieuws

4
0
AI zou de VS een dodelijk voordeel kunnen geven in de oorlog in Iran, maar er zijn gevaren | Wetenschaps-, klimaat- en technologienieuws

Vergeet sciencefiction. Het tijdperk van AI in oorlog is aangebroken.

Israël heeft AI-systemen gebruikt Gaza om potentiële doelen te markeren en te helpen bij het prioriteren van operaties.

Het Amerikaanse leger gebruikte naar verluidt het model van Anthropic, Claude, tijdens zijn militaire missie operatie om Nicolas Maduro uit Venezuela te ontvoeren.

En zelfs daarna Anthropic kwam in moeilijkheden met de Amerikaanse regering over hoe precies AI in oorlog zou moeten worden gebruikt, gebruikte het Amerikaanse leger blijkbaar nog steeds Claude bij zijn aanval op Iran.

Iran laatste: Trump bekritiseert Starmer vanwege het Britse standpunt

Het is zeer goed mogelijk, zeggen experts, dat de raketten die vandaag de dag boven Teheran vliegen, het doelwit zijn van systemen die worden aangedreven door AI.

“AI verandert de aard van de moderne oorlogsvoering in de 21e eeuw. Het is moeilijk om de impact die het heeft en zal hebben te overschatten”, zegt Craig Jones, hoofddocent politieke geografie aan de Universiteit van Newcastle.

“Het is een potentieel angstaanjagend scenario.”

Angstaanjagend of niet, het lijkt erop dat er geen weg meer terug is. Als je een idee wilt krijgen van het belang dat het Amerikaanse leger aan AI hecht, is een goed beginpunt een memo die begin dit jaar door minister van Defensie Pete Hegseth, die zichzelf minister van Oorlog noemt, aan alle hoge militaire leiders is gestuurd.

“Ik geef het Ministerie van Oorlog opdracht om de militaire AI-dominantie van Amerika te versnellen door een ‘AI-first’ oorlogsmacht te worden in alle componenten, van voor tot achter”, schreef de heer Hegseth.

Dit is geen experiment, dit is een opdracht: om AI snel en op grote schaal toe te passen.

Of zoals Hegseth het zegt: “Snelheid wint”.

Afbeelding:
Het is mogelijk dat de VS al AI gebruiken om hun raketaanvallen te informeren. Afbeelding: AP/CentCom

Toch is het scenario in kwestie niet het scenario dat als eerste in je opkomt.

Ja, de autonomie neemt op sommige gebieden toe. In OekraïneEr zijn bijvoorbeeld drones die een missie kunnen voortzetten, zelfs nadat ze het contact met een menselijke operator hebben verloren.

Maar we bevinden ons niet in het stadium van autonome killer-robots die het slagveld bestormen.

“We bevinden ons nog niet in het Terminator-tijdperk”, zegt David Leslie, hoogleraar ethiek, technologie en samenleving aan de Queen Mary University in Londen.

De systemen waarin AI wordt ingebed – in militair jargon ‘beslissingsondersteunende systemen’ genoemd – zijn adviseurs die doelen markeren, bedreigingen rangschikken en prioriteiten stellen.

AI-systemen kunnen satellietbeelden, onderschepte communicatie, logistieke gegevens en sociale-mediastromen – duizenden, zelfs honderdduizenden inputs – veel sneller samenbrengen en patronen aan het oppervlak brengen dan welk menselijk team dan ook.

Het idee is dat ze helpen de mist van de oorlog te doorbreken, waardoor commandanten de middelen kunnen inzetten waar ze er het meest toe doen, terwijl ze mogelijk nauwkeuriger zijn dan vermoeide, overweldigde, gestresste menselijke soldaten.

Dit betekent dat ze niet alleen een hulpmiddel zijn, zegt dr. Jones, maar een nieuwe manier om beslissingen te nemen.

“AI is, zoals we in ons eigen leven zien, meer een infrastructuur”, zegt hij. “Het zit in het systeem ingebouwd.”

‘We hebben het vermogen om de surveillance te verzamelen die we al enkele jaren doen.

“Maar nu geeft AI de stabiliteit om daarop in te spelen en de leider van Iran te doden en serieuze tegenstanders en serieuze vijanden uit te schakelen en ze op onwaarschijnlijke manieren te vinden waarop ze misschien nog niet eerder zijn gevonden.”

‘Een zeer overtuigend instrument’

Professor Leslie is het ermee eens dat de nieuwe systemen vanuit militair perspectief buitengewoon capabel zijn.

“De race om snelheid is de drijvende kracht achter deze acceptatie”, zegt hij. “Het sneller maken van besluitvormingscycli is wat militair voordeel van dodelijkheid oplevert.”

Een belangrijk kenmerk van beslissingsondersteunende systemen is dat de AI niet op de knop drukt. Een mens wel. Dat is de centrale geruststelling geweest in debatten over militaire AI. Er is altijd ‘een mens in de lus’.

Als Open AIhet bedrijf dat maakt ChatGPTzei het na de aankondiging van een partnerschap om het Pentagon van AI te voorzien: “We zullen voorwaarts ingezette OpenAI-ingenieurs hebben vrijgemaakt die de overheid helpen, met goedgekeurde veiligheids- en afstemmingsonderzoekers in de lus.”

OpenAI heeft ook benadrukt dat het met het Pentagon overeenstemming heeft bereikt dat zijn technologie niet zal worden gebruikt op manieren die drie ‘rode lijnen’ overschrijden: massaal binnenlands toezicht, directe autonome wapensystemen en geautomatiseerde beslissingen met hoge inzet.

Maar zelfs als er een mens op de hoogte is, blijft er een vraag bestaan.

Lees meer:
AI is bereid om ‘nucleair te gaan’ in wargames, zo blijkt uit onderzoek
Claude Opus 4.6: Deze AI heeft zojuist de ‘automaattest’ doorstaan


Amerikaans-Israëlische luchtaanval vernietigt delen van Iraanse stad

Als je een oorlog voert, kan een mens dan echt elke beslissing van een AI controleren? Wat betekent ‘menselijk toezicht’ eigenlijk als de tijd wordt gecomprimeerd en de informatie onvolledig is?

“Mensen zijn technisch gezien op de hoogte”, zegt dr. Jones.

“Dat betekent naar mijn mening niet dat ze voldoende op de hoogte zijn om effectieve beslissingsmacht te hebben en toezicht te houden op wat er precies is gebeurd. De AI… is een zeer overtuigend hulpmiddel voor mensen die beslissingen nemen.”

Of zoals professor Leslie het verwoordt: “We worden werkelijk geconfronteerd met een potentieel groot gevaar van… rubber stamping, waarbij je vanwege de snelheid die ermee gemoeid is, geen actieve menselijke, kritische menselijke betrokkenheid hebt om de aanbevelingen te beoordelen die door deze systemen worden gedaan.”

En dan is er nog de vraag naar de feilbaarheid van AI zelf.

Lees meer:
Groot-Brittannië zal HMS Dragon op Cyprus inzetten, bevestigt premier
Vraag en antwoord over Iran: Waarom Trump zou kunnen proberen een snelle overwinning uit te roepen

Uit tests door Sky News bleek dat noch Claude noch ChatGPT konden vertellen hoeveel poten een kip had, als de kip er niet uitzag zoals verwacht.

Bovendien hield de AI vol dat het juist was, ook al was het duidelijk verkeerd.

Het voorbeeld kwam uit een artikel dat tientallen voorbeelden van soortgelijke mislukkingen illustreerde. “Het is geen eenmalig voorbeeld van dierenpoten”, zegt hoofdauteur Anh Vo.


Kunstmatige intelligentie versnelt, maar hoe snel is te snel? Rowland Manthorpe kijkt naar het laatste onderzoek.

“Het probleem is algemeen voor alle soorten gegevens en taken”, voegde Vo eraan toe.

De reden is dat AI de wereld niet echt in menselijke zin ziet; ze raden wat het meest waarschijnlijk is op basis van gegevens uit het verleden.

Meestal is dat soort statistische redenering verbazingwekkend effectief. De wereld is zo voorspelbaar dat waarschijnlijkheden werken.

Maar sommige omgevingen zijn van nature onvoorspelbaar en er staat veel op het spel.

We testen de grenzen van deze technologie in de meest meedogenloze omstandigheden die je je kunt voorstellen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in