Home Nieuws Pentagon kondigt deals aan met Google, Nvidia en anderen om AI te...

Pentagon kondigt deals aan met Google, Nvidia en anderen om AI te gebruiken in het bestrijden van oorlogen

2
0
Pentagon kondigt deals aan met Google, Nvidia en anderen om AI te gebruiken in het bestrijden van oorlogen

Het Pentagon zei vrijdag dat het overeenkomsten heeft bereikt met zeven technologiebedrijven om hun technologie te gebruiken kunstmatige intelligentie in zijn geheime computernetwerken, waar het leger gebruik van kan maken AI-aangedreven mogelijkheden om help het oorlogen te voeren.
Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection en SpaceX zullen hun middelen ter beschikking stellen om de besluitvorming van oorlogsjagers in complexe operationele omgevingen te helpen verbeteren, aldus het ministerie van Defensie.
Opvallend afwezig in de lijst is AI-bedrijf Anthropicna zijn publiek geschil en juridische strijd met de regering-Trump over de ethiek en veiligheid van AI-gebruik was in.
Het ministerie van Defensie heeft het gebruik van AI de afgelopen jaren snel versneld. De technologie kan het leger helpen de tijd te verkorten die nodig is om doelen op het slagveld te identificeren en aan te vallen, terwijl het helpt bij de organisatie van wapenonderhoud en aanvoerlijnen, volgens een rapport uit maart van het Brennan Center for Justice.
Maar AI heeft al zorgen geuit dat het gebruik ervan de privacy van Amerikanen zou kunnen schenden of machines in staat zou kunnen stellen doelwitten op het slagveld te kiezen. Een van de bedrijven die een contract met het Pentagon hadden gesloten, zei dat de overeenkomst in bepaalde situaties menselijk toezicht vereiste.
Bezorgdheid over het militaire gebruik van AI ontstond tijdens de Israëlische oorlog tegen militanten in Gaza en Libanon, waarbij Amerikaanse technologiegiganten Israël stilletjes de macht gaven om doelen te volgen. Maar ook het aantal gedode burgers steeg enorm, waardoor de vrees werd aangewakkerd dat deze instrumenten hebben bijgedragen aan de dood van onschuldige mensen.

Vragen over militair gebruik van AI worden nog uitgewerkt

De nieuwste contracten van het Pentagon komen in een tijd van bezorgdheid over de mogelijkheid van een te grote afhankelijkheid van de technologie op het slagveld, zegt Helen Toner, interim-directeur van het Centre for Security and Emerging Technology van Georgetown University.
“Veel moderne oorlogsvoering is gebaseerd op mensen die in commandocentra achter monitoren zitten en ingewikkelde beslissingen nemen over verwarrende, snel veranderende situaties”, zegt Toner, een voormalig bestuurslid van OpenAI. “AI-systemen kunnen nuttig zijn bij het samenvatten van informatie of het bekijken van surveillancefeeds en het proberen potentiële doelwitten te identificeren.”
Maar vragen over de juiste niveaus van menselijke betrokkenheid, risico’s en training worden nog steeds uitgewerkt, zei ze.
“Hoe implementeer je deze tools snel, zodat ze effectief zijn en strategisch voordeel opleveren?” Toner vroeg: “Hoewel je ook beseft dat je de operators moet trainen en ervoor moet zorgen dat ze weten hoe ze ze moeten gebruiken en dat je ze niet te veel vertrouwt?”
Dergelijke zorgen zijn geuit door Anthropic. Het technologiebedrijf zei dat het in zijn contract garanties wilde dat het leger zijn technologie niet zou gebruiken voor volledig autonome wapens en het toezicht op Amerikanen. Minister van Defensie Pete Hegseth zei dat het bedrijf elk gebruik moet toestaan ​​dat het Pentagon als wettig beschouwt.
Anthropic aangeklaagd nadat president Donald Trump, een Republikein, had geprobeerd alle federale instanties ervan te weerhouden de chatbot van het bedrijf te gebruiken. Claude en Hegseth probeerden het bedrijf te bestempelen als een risico voor de toeleveringsketen, een aanduiding die bedoeld was om te beschermen tegen sabotage van nationale veiligheidssystemen door buitenlandse tegenstanders.
OpenAI had in maart een deal aangekondigd met het Pentagon om Anthropic effectief te vervangen door ChatGPT in geheime omgevingen. OpenAI bevestigde vrijdag in een verklaring dat het dezelfde overeenkomst was die het begin maart aankondigde.
“Zoals we al zeiden toen we onze overeenkomst enkele maanden geleden voor het eerst aankondigden, zijn we van mening dat de mensen die de Verenigde Staten verdedigen over de beste middelen ter wereld moeten beschikken”, aldus het bedrijf.
De overeenkomst van één bedrijf met het Pentagon bevatte een taal waarin stond dat er menselijk toezicht moest zijn op alle missies waarin de AI-systemen autonoom of semi-autonoom handelen, volgens een persoon die bekend was met de overeenkomst en niet bevoegd was om er publiekelijk over te spreken. De taal zei ook dat de AI-instrumenten moeten worden gebruikt op een manier die consistent is met grondwettelijke rechten en burgerlijke vrijheden.
Dit lijken knelpunten voor Anthropic, hoewel OpenAI eerder heeft gezegd dat het soortgelijke garanties kreeg toen het zijn eigen deal sloot met het Pentagon.

Het standpunt van het Pentagon

Emil Michael, de Chief Technology Officer van het Pentagon, vertelde vrijdag aan CNBC dat het onverantwoord zou zijn geweest om op slechts één bedrijf te vertrouwen, een erkenning van de wrijving met Anthropic.
“En toen we erachter kwamen dat één partner niet echt met ons wilde samenwerken op de manier waarop wij met hen wilden samenwerken, gingen we eropuit en zorgden ervoor dat we meerdere verschillende aanbieders hadden”, zei Michael.
Sommige bedrijven, waaronder Amazon en Microsoft, werken al lang samen met het leger in geheime omgevingen, en het was niet meteen duidelijk of de nieuwe overeenkomsten hun overheidspartnerschappen aanzienlijk zouden veranderen. Anderen, zoals chipmaker Nvidia en de startup Reflection, zijn nieuw in dergelijk werk. Beide bedrijven maken open-source AI-modellen, die Michael heeft omschreven als een prioriteit om een ​​“Amerikaans alternatief” te bieden voor de snelle ontwikkeling van AI-systemen in China, waarbij sommige belangrijke componenten publiekelijk toegankelijk zijn zodat andere kunnen voortbouwen.
Het Pentagon zei vrijdag dat militair personeel zijn AI-capaciteiten al gebruikt via zijn officiële platform, GenAI.mil.
“Oorlogsstrijders, burgers en contractanten zetten deze capaciteiten nu in de praktijk, waardoor veel taken van maanden naar dagen worden teruggebracht”, aldus het Pentagon, eraan toevoegend dat de groeiende AI-capaciteiten van het leger “oorlogsstrijders de middelen zullen geven die ze nodig hebben om met vertrouwen te handelen en de natie tegen elke dreiging te beschermen.”
In veel gevallen gebruikt het leger kunstmatige intelligentie op dezelfde manier als burgers dat doen: om taken uit het hoofd op zich te nemen die mensen uren of dagen zouden kosten om te voltooien, zegt Toner van de Georgetown University.
AI kan worden gebruikt om beter te voorspellen wanneer een helikopter onderhoud nodig heeft of om erachter te komen hoe grote hoeveelheden troepen en uitrusting efficiënt kunnen worden verplaatst, zei ze. Het kan ook helpen bepalen of voertuigen op de surveillancefeeds van een drone civiel of militair zijn.
Maar mensen moeten er niet al te afhankelijk van worden.
“Er bestaat een fenomeen dat automatiseringsbias wordt genoemd, waarbij mensen geneigd zijn aan te nemen dat machines beter werken dan ze in werkelijkheid doen”, zegt Toner.


O’Brien rapporteerde vanuit Providence, Rhode Island.


Volg de berichtgeving van de AP over kunstmatige intelligentie op https://apnews.com/hub/artificial-intelligence.

—Ben Finley en Matt O’Brien, Associated Press

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in