Home Nieuws AI-veiligheid ontmoet de oorlogsmachine

AI-veiligheid ontmoet de oorlogsmachine

2
0
AI-veiligheid ontmoet de oorlogsmachine

Wanneer Antropisch vorig jaar werd de eerste majoor AI-bedrijf goedgekeurd door de Amerikaanse overheid voor geheim gebruik – inclusief militaire toepassingen – maakte het nieuws geen grote indruk. Maar deze week sloeg een tweede ontwikkeling in als een kanonskogel: het Pentagon wel zijn relatie heroverwegen met het bedrijf, inclusief een contract van $ 200 miljoen, ogenschijnlijk omdat het veiligheidsbewuste AI-bedrijf bezwaar maakt tegen deelname aan bepaalde dodelijke operaties. Het zogenaamde Ministerie van Oorlog zou Anthropic zelfs kunnen bestempelen als een ‘toeleveringsketenrisico’, een scharlakenrode brief die doorgaans gereserveerd is voor bedrijven die zaken doen met landen die onder de loep worden genomen door federale instanties, zoals China, wat betekent dat het Pentagon geen zaken zou doen met bedrijven die de AI van Anthropic gebruiken in hun defensiewerk. In een verklaring aan WIRED bevestigde hoofdwoordvoerder van het Pentagon, Sean Parnell, dat Anthropic op de eerste plaats zat. “Onze natie vereist dat onze partners bereid zijn onze oorlogsstrijders te helpen winnen in welk gevecht dan ook. Uiteindelijk gaat het hier om onze troepen en de veiligheid van het Amerikaanse volk”, zei hij. Dit is ook een boodschap aan andere bedrijven: OpenAI, xAI en Google hebben momenteel een ministerie van Defensie contracten voor niet-geclassificeerd werk, springen door de vereiste hoepels om hun eigen hoge goedkeuringen te krijgen.

Er valt hier genoeg uit te pakken. Om te beginnen is het de vraag of Anthropic wordt gestraft omdat ze klaagt over het feit dat haar AI-model Claude werd gebruikt als onderdeel van de inval om de Venezolaanse president Nicolás Maduro af te zetten (dat wil zeggen wat er wordt gerapporteerd; het bedrijf ontkent dit). Er is ook het feit dat Anthropic publiekelijk AI-regulering steunt – een standpunt dat in de branche buitensporig is en dat in strijd is met het beleid van de regering. Maar er speelt een groter, verontrustender probleem. Zullen de eisen van de overheid voor militair gebruik AI zelf minder veilig maken?

Onderzoekers en leidinggevenden zijn van mening dat AI de krachtigste technologie is die ooit is uitgevonden. Vrijwel alle huidige AI-bedrijven zijn gebaseerd op het uitgangspunt dat het mogelijk is om AGI, of superintelligentie, te bereiken op een manier die wijdverbreide schade voorkomt. Elon Musk, de oprichter van xAI, was ooit de grootste voorstander van het beteugelen van AI. Hij was medeoprichter van OpenAI omdat hij vreesde dat de technologie te gevaarlijk was om over te laten aan winstbejagde bedrijven.

Anthropic heeft een ruimte gecreëerd die het meest veiligheidsbewust is van allemaal. De missie van het bedrijf is om vangrails zo diep in hun modellen te integreren dat slechte actoren het donkerste potentieel van AI niet kunnen exploiteren. Isaac Asimov zei het als eerste en beste in de zijne wetten van de robotica: Een robot mag een mens geen letsel toebrengen of, door niets te doen, toelaten dat een mens letsel oploopt. Zelfs als AI slimmer wordt dan enig mens op aarde – een mogelijkheid waar AI-leiders vurig in geloven – moeten deze vangrails standhouden.

Het lijkt dus tegenstrijdig dat toonaangevende AI-laboratoria zich inspannen om hun producten in de allernieuwste militaire en inlichtingenoperaties te krijgen. Als eerste grote laboratorium met een geheim contract biedt Anthropic de overheid een “Aangepaste set Claude Gov-modellen, exclusief gebouwd voor Amerikaanse nationale veiligheidsklanten.” Toch zei Anthropic dat het dit deed zonder zijn eigen veiligheidsnormen te schenden, waaronder een verbod op het gebruik van Claude om wapens te produceren of te ontwerpen. Antropische CEO Dario Amodei specifiek heeft gezegd hij wil niet dat Claude betrokken raakt bij autonome wapens of AI-overheidstoezicht. Maar dat werkt misschien niet met de huidige regering. CTO van het Ministerie van Defensie, Emil Michael (voorheen de Chief Business Officer van Uber) vertelde dit deze week aan verslaggevers dat de regering niet zal tolereren dat een AI-bedrijf beperkingen oplegt aan de manier waarop het leger AI in zijn wapens gebruikt. “Als er een dronezwerm uit een militaire basis komt, wat zijn dan jouw opties om deze neer te halen? Als de menselijke reactietijd niet snel genoeg is… hoe ga je dat dan doen?” vroeg hij retorisch. Tot zover de eerste wet van de robotica.

Er kan een goed argument worden aangevoerd dat effectieve nationale veiligheid de beste technologie van de meest innovatieve bedrijven vereist. Terwijl sommige technologiebedrijven een paar jaar geleden nog aarzelden om met het Pentagon samen te werken, zijn het in 2026 over het algemeen met vlaggen zwaaiende potentiële militaire aannemers. Ik heb nog geen enkele AI-manager horen spreken over het feit dat hun modellen in verband worden gebracht met dodelijk geweld, behalve Alex Karp, CEO van Palantir is niet verlegen om te zeggenmet schijnbare trots: “Ons product wordt af en toe gebruikt om mensen te vermoorden.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in