Home Nieuws Pentagon zet zijn dreigement door en bestempelt Anthropic als een supply chain-risico...

Pentagon zet zijn dreigement door en bestempelt Anthropic als een supply chain-risico ‘met onmiddellijke ingang’

3
0
Pentagon zet zijn dreigement door en bestempelt Anthropic als een supply chain-risico ‘met onmiddellijke ingang’

De regering-Trump zet zijn dreigement met een benoeming door kunstmatige intelligentie bedrijf Antropisch als een supply chain-risico in een ongekende beweging die andere overheidscontractanten zou kunnen dwingen te stoppen met het gebruik van de AI-chatbot Claude.
Het Pentagon zei donderdag in een verklaring dat het “het Anthropic-leiderschap officieel heeft geïnformeerd dat het bedrijf en zijn producten met onmiddellijke ingang als een risico voor de toeleveringsketen worden beschouwd.”
Het besluit leek de mogelijkheid voor verdere onderhandelingen met Anthropic te belemmeren, bijna een week nadat president Donald Trump en minister van Defensie Pete Hegseth het bedrijf ervan beschuldigden de nationale veiligheid in gevaar te brengen.
Trump en Hegseth kondigden afgelopen vrijdag, aan de vooravond van de oorlog met Iran, een reeks dreigende straffen aan, nadat CEO Dario Amodei van Anthropic weigerde zich terug te trekken uit bezorgdheid dat de producten van het bedrijf zouden kunnen worden gebruikt voor massale surveillance van Amerikanen of voor autonome wapens.
Amodei zei donderdag in een verklaring dat “we niet geloven dat deze actie juridisch verantwoord is, en we zien geen andere keuze dan deze voor de rechtbank aan te vechten.”
In de verklaring van het Pentagon stond: “Dit ging over één fundamenteel principe: het leger zou technologie voor alle wettige doeleinden kunnen gebruiken. Het leger zal niet toestaan ​​dat een verkoper zichzelf in de commandostructuur voegt door het rechtmatige gebruik van een kritieke capaciteit te beperken en onze oorlogsstrijders in gevaar te brengen.”
Amodei wierp tegen dat de beperkte uitzonderingen die Anthropic probeerde surveillance en autonome wapens te beperken “betrekking hebben op gebruiksgebieden op hoog niveau, en niet op operationele besluitvorming.”
Hij zei dat er “productief gesprekken” met het Pentagon de afgelopen dagen over de vraag of het Claude kan blijven gebruiken of een “soepele overgang” tot stand kan brengen als er geen overeenstemming wordt bereikt. Trump gaf het leger zes maanden de tijd om Claude uit te faseren, die al breed ingebed is in militaire en nationale veiligheidsplatforms. Amodei zei dat het een prioriteit is om ervoor te zorgen dat oorlogsstrijders niet “te midden van grote gevechtsoperaties worden beroofd van belangrijke hulpmiddelen.”
Sommige militaire aannemers verbraken al de banden met Anthropic, een rijzende ster in de technologie-industrie die Claude aan verschillende bedrijven en overheidsinstanties verkoopt. Lockheed Martin zei dat het “de aanwijzingen van de president en het Ministerie van Oorlog zal volgen” en zal kijken naar andere aanbieders van grote taalmodellen.
“We verwachten minimale gevolgen omdat Lockheed Martin voor geen enkel deel van ons werk afhankelijk is van een enkele LLM-leverancier”, aldus het bedrijf.
Hoe Defensie de reikwijdte van de risicoaanduiding zal interpreteren, is onduidelijk. Amodei zei dat uit een kennisgeving die Anthropic woensdag van het Pentagon ontving, blijkt dat deze alleen van toepassing is op het gebruik van Claude door klanten als een “direct onderdeel van” hun militaire contracten.
Microsoft zei dat zijn advocaten de regel hebben bestudeerd en dat het bedrijf “met Anthropic kan blijven samenwerken aan niet-defensiegerelateerde projecten.”

Het Pentagon krijgt kritiek op zijn besluit

Het besluit van het Pentagon om een ​​regel toe te passen die bedoeld was om de aanbodbedreigingen van buitenlandse tegenstanders aan te pakken, stuitte op brede kritiek. Federale codes hebben supply chain-risico gedefinieerd als een “risico dat een tegenstander een systeem kan saboteren, kwaadwillig ongewenste functies kan introduceren of anderszins kan ondermijnen” om het te verstoren, te degraderen of te bespioneren.
De Amerikaanse senator Kirsten Gillibrand, een democraat uit New York en lid van de Senaatscommissie voor Armed Services en de Senaatsinlichtingencommissie, noemde het “een gevaarlijk misbruik van een instrument dat bedoeld is om door tegenstanders gecontroleerde technologie aan te pakken.”
“Deze roekeloze actie is kortzichtig, zelfdestructief en een geschenk voor onze tegenstanders”, zei ze donderdag in een schriftelijke verklaring.
Neil Chilson, een Republikeinse voormalige hoofdtechnoloog van de Federal Trade Commission die nu leiding geeft AI beleid van het Abundance Institute, zei dat de beslissing lijkt op “een enorme overschrijding die zowel de Amerikaanse AI-sector als het vermogen van het leger om de beste technologie voor de Amerikaanse oorlogsjager te verwerven zou schaden.”
Eerder op de dag stuurde een groep voormalige defensie- en nationale veiligheidsfunctionarissen een brief naar Amerikaanse wetgevers waarin zij hun “ernstige bezorgdheid” uitten over de aanwijzing.
“Het gebruik van deze autoriteit tegen een binnenlands Amerikaans bedrijf wijkt diepgaand af van het beoogde doel en schept een gevaarlijk precedent”, aldus de brief van voormalige functionarissen en beleidsexperts, waaronder voormalig CIA-directeur Michael Hayden en gepensioneerde leiders van de luchtmacht, het leger en de marine.
Ze voegden eraan toe dat een dergelijke benaming bedoeld is om “de Verenigde Staten te beschermen tegen infiltratie door buitenlandse tegenstanders – van bedrijven die afhankelijk zijn van Peking of Moskou, en niet van Amerikaanse vernieuwers die transparant opereren onder de rechtsstaat. Het toepassen van dit instrument om een ​​Amerikaans bedrijf te bestraffen omdat het weigert de waarborgen tegen massaal binnenlands toezicht en volledig autonome wapens af te schaffen, is een categoriefout met gevolgen die veel verder reiken dan dit geschil.”

Anthropic ziet een stijging in het aantal consumentendownloads

Hoewel Anthropic grote partnerschappen met defensiebedrijven verloor, heeft het de afgelopen week een golf van consumentendownloads ervaren doordat mensen de kant van zijn morele standpunt kozen. Deze week hebben meer dan een miljoen mensen zich elke dag voor Claude aangemeld, aldus het bedrijf, waarmee het voorbij OpenAI’s ChatGPT en Google’s Gemini komt als de beste AI-app in meer dan twintig landen in de app store van Apple.
Het dispuut met het Pentagon heeft ook de bittere rivaliteit van Anthropic met OpenAI verder verdiept, die begon toen ex-OpenAI-leiders, waaronder Amodei, Anthropic in 2021 oprichtten.
Uren nadat het Pentagon Anthropic afgelopen vrijdag had gestraft, kondigde OpenAI een deal aan om Anthropic effectief te vervangen door ChatGPT in geheime militaire omgevingen.
OpenAI zei dat het soortgelijke bescherming zocht tegen binnenlands toezicht en volledig autonome wapens, maar later zijn overeenkomsten moest wijzigen, waardoor CEO Sam Altman zei dat hij geen overhaaste deal had moeten sluiten die ‘er opportunistisch en slordig uitzag’.
Amodei uitte ook zijn spijt over zijn eigen aandeel in die “moeilijke dag voor het bedrijf”, en zei donderdag dat hij zich “direct wilde verontschuldigen” voor een intern briefje dat hij naar het personeel van Anthropic stuurde waarin het gedrag van OpenAI werd aangevallen en werd gesuggereerd dat Anthropic werd gestraft omdat hij Trump geen “dictatorachtige lof” had gegeven.

—Matt O’Brien en Konstantin Toropin, Associated Press

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in