Dario AmodeiCEO van Anthropic, zal dinsdag naar het Pentagon gaan voor een ontmoeting met de minister van Defensie Piet Hegseth over hoe het leger die van het bedrijf gebruikt kunstmatige intelligentie modellen. En het zal waarschijnlijk een gespannen bijeenkomst worden, zoals bronnen eerst vertelden Axios.
Contractbesprekingen tussen de AI-startup en de Ministerie van Defensie zijn de afgelopen weken uit koers geraakt Antropisch heeft aangedrongen op enkele waarborgen voor de manier waarop zijn technologie zal worden gebruikt. Hoewel het in San Francisco gevestigde bedrijf bereid is een aantal gebruiksbeperkingen voor het ministerie van Defensie te versoepelen, wil het niet dat zijn modellen voor ten minste twee specifieke doeleinden worden gebruikt: het bespioneren van Amerikanen of het ontwikkelen van autonome wapens.
Op weg naar de bijeenkomst van dinsdag lijken de twee facties verschillende opvattingen te hebben over de voortgang van de contractbesprekingen. Terwijl een woordvoerder van Anthropic maandag in een verklaring zei dat het bedrijf “productief gesprekken, in goed vertrouwen” met het Pentagon, zei een woordvoerder van het ministerie van Defensie vorige week dat de relatie van Anthropic met het Pentagon wordt herzien.
“Anthropic weet dat dit geen kennismakingsbijeenkomst is”, vertelde een hoge functionaris van het ministerie van Defensie Axios. “Dit is geen vriendschappelijke bijeenkomst.”
DE ROL VAN ANTROPISCH IN NATIONALE VEILIGHEID
Anthropic is momenteel het enige AI-bedrijf dat beschikbaar is in de geheime netwerken van het leger, en behoorde tot een aantal bedrijven bekroond met een contract van $ 200 miljoen met het ministerie van Defensie in juli om ‘de Amerikaanse nationale veiligheid te bevorderen’.
Het bedrijf heeft herhaaldelijk zijn engagement herhaald om de nationale veiligheid te ondersteunen, ook op maandag. In juni werd dit bekend gemaakt Claude Gouverneureen reeks modellen die het exclusief voor Amerikaanse nationale veiligheidsklanten heeft gebouwd.
En toch heeft Amodei zich uitgesproken over het balanceren van de kansen die AI biedt en de zorgen die het met zich meebrengt. In een lang stuk Vorige maand gepubliceerd waarschuwde de medeoprichter van Anthropic: “De mensheid staat op het punt een bijna onvoorstelbare macht te krijgen, en het is zeer onduidelijk of onze sociale, politieke en technologische systemen de volwassenheid bezitten om die macht uit te oefenen.”
Op de India AI Impact Summit vorige week zei Amodei dat hij zich zorgen maakt over het autonome gedrag van AI-systemen en het potentieel voor misbruik van AI door individuen en overheden.
DE MADURO-FACTOR
Een andere factor die de relatie tussen Anthropic en het Pentagon onder druk heeft gezet, kwam vorige week aan het licht: Claude werd begin dit jaar gebruikt in de operatie van het Amerikaanse leger om de voormalige Venezolaanse president Nicolás Maduro gevangen te nemen. De Wall Street Journal gerapporteerd. Die missie lijkt in strijd te zijn met de gebruiksrichtlijnen van Anthropic, die onder meer verbieden dat Claude wordt gebruikt om aan te zetten tot geweld of voor strafrecht en toezicht.
Het bedrijf gebruiksbeleidvoor het laatst bijgewerkt in september, is bedoeld om “een optimaal evenwicht te vinden tussen het mogelijk maken van nuttig gebruik en het beperken van potentiële schade.”
Maar Anthropic merkt ook op dat het bedrijf “contracten kan sluiten met bepaalde overheidsklanten die gebruiksbeperkingen afstemmen op de publieke missie en wettelijke autoriteiten van die klant, als, naar het oordeel van Anthropic, de contractuele gebruiksbeperkingen en toepasselijke waarborgen voldoende zijn om de potentiële schade te beperken.”
HET POKEN VAN DE BEER
Anthropic heeft geprobeerd zich te onderscheiden van de rest van het universum van AI-ontwikkelaars met een ‘veiligheid eerst’-benadering waarbij zelfs een veegbeweging werd gemaakt. via een Super Bowl-advertentienaar aanleiding van het recente besluit van OpenAI om advertenties op te nemen in het ChatGPT-platform.
Hoewel Amodei zich soms heeft ontpopt als een soort tegendraads man, door het onbeperkte gebruik van zijn Claude AI-model voor het Amerikaanse leger terug te dringen, prikt hij feitelijk in de beer die Hegseth is.
Als Axios Vorige week gemeld heeft Hegseth gedreigd dat het Pentagon Anthropic zou kunnen bestempelen als een “toeleveringsketenrisico”, waardoor zijn contracten ongeldig zouden worden verklaard en andere bedrijven die met het Pentagon samenwerken zouden worden gedwongen te verklaren dat ze Claude niet gebruiken in gerelateerde workflows.
“Onze natie vereist dat onze partners bereid zijn onze oorlogsstrijders te helpen winnen in welke strijd dan ook”, zei hoofdwoordvoerder van het Pentagon, Sean Parnell, vorige week tegen de media. “Uiteindelijk gaat dit over onze troepen en de veiligheid van het Amerikaanse volk.”



