Home Nieuws Anthropic slaat terug nadat het Amerikaanse leger het als een ’toeleveringsketenrisico’ bestempelt

Anthropic slaat terug nadat het Amerikaanse leger het als een ’toeleveringsketenrisico’ bestempelt

4
0
Anthropic slaat terug nadat het Amerikaanse leger het als een ’toeleveringsketenrisico’ bestempelt

De Amerikaanse minister van Defensie Pete Hegseth gaf het Pentagon opdracht om Anthropic aan te wijzen als een “risico voor de toeleveringsketen” op vrijdag, waardoor er schokgolven door Silicon Valley gingen en veel bedrijven in verwarring raakten om te begrijpen of ze een van de beste technologieën uit de industrie kunnen blijven gebruiken meest populair AI-modellen.

“Met onmiddellijke ingang mag geen enkele aannemer, leverancier of partner die zaken doet met het Amerikaanse leger enige commerciële activiteit uitoefenen met Anthropic”, schreef Hegseth in een post op sociale media.

De aanwijzing komt na weken van gespannen onderhandelingen tussen het Pentagon en Anthropic over hoe het Amerikaanse leger de AI-modellen van de startup zou kunnen gebruiken. In een blogpost deze week betoogde Anthropic dat zijn contracten met het Pentagon niet mogen toelaten dat zijn technologie wordt gebruikt voor massale binnenlandse surveillance van Amerikanen of voor volledig autonome wapens. Het Pentagon vroeg Anthropic om ermee in te stemmen dat het Amerikaanse leger zijn AI zou toepassen op “alle legale toepassingen” zonder specifieke uitzonderingen.

Door een risicoaanduiding voor de toeleveringsketen kan het Pentagon bepaalde leveranciers beperken of uitsluiten van defensiecontracten als wordt aangenomen dat ze beveiligingsproblemen opleveren, zoals risico’s die verband houden met buitenlands eigendom, controle of invloed. Het is bedoeld om gevoelige militaire systemen en gegevens te beschermen tegen mogelijke compromissen.

Anthropic reageerde in een andere blogpost Vrijdagavond zei hij dat het “elke aanduiding van een risico in de toeleveringsketen voor de rechter zou aanvechten” en dat een dergelijke aanduiding “een gevaarlijk precedent zou scheppen voor elk Amerikaans bedrijf dat met de overheid onderhandelt.”

Anthropic voegde eraan toe dat het geen directe communicatie had ontvangen van het ministerie van Defensie of het Witte Huis over onderhandelingen over het gebruik van zijn AI-modellen.

“Secretaris Hegseth heeft gesuggereerd dat deze benaming iedereen die zaken doet met het leger zou beperken van het zakendoen met Anthropic. De secretaris heeft niet de wettelijke bevoegdheid om deze verklaring te onderbouwen”, schreef het bedrijf.

Het Pentagon weigerde commentaar te geven.

“Dit is het meest schokkende, schadelijke en verreikende dat ik de Amerikaanse regering ooit heb zien doen”, zegt Dean Ball, senior fellow bij de Foundation for American Innovation en voormalig senior beleidsadviseur voor AI bij het Witte Huis. “We hebben eigenlijk alleen maar een Amerikaans bedrijf gesanctioneerd. Als je een Amerikaan bent, zou je moeten nadenken of je hier over tien jaar wel of niet zou moeten wonen.”

Mensen in heel Silicon Valley stemden toe op sociale media en uitten een soortgelijke schok en ontsteltenis. “De mensen die deze regering leiden zijn impulsief en wraakzuchtig. Ik denk dat dit voldoende is om hun gedrag te verklaren”, zegt Paul Graham, oprichter van de startup-accelerator Y Combinator. gezegd.

Boaz Barak, een OpenAI-onderzoeker, zei in een bericht dat “het neerknielen van een van onze toonaangevende AI-bedrijven gelijk heeft wat betreft het slechtste eigen doel dat we kunnen bereiken. Ik hoop heel erg dat koelere hoofden de overhand krijgen en deze aankondiging wordt teruggedraaid.”

Ondertussen maakte Sam Altman, CEO van OpenAI, vrijdagavond bekend dat het bedrijf een overeenkomst heeft bereikt met het ministerie van Defensie om zijn AI-modellen in geheime omgevingen in te zetten, schijnbaar met uitzonderingen. “Twee van onze belangrijkste veiligheidsprincipes zijn het verbod op binnenlandse massale surveillance en de menselijke verantwoordelijkheid voor het gebruik van geweld, inclusief voor autonome wapensystemen”, aldus Altman. “De DoW is het eens met deze principes, weerspiegelt ze in de wet en het beleid, en we nemen ze op in onze overeenkomst.”

Verwarde klanten

In zijn blogpost van vrijdag zei Anthropic dat een aanduiding van een supply chain-risico, onder autoriteit 10 USC 3252, alleen van toepassing is op contracten van het Ministerie van Defensie rechtstreeks met leveranciers, en niet dekt hoe aannemers de Claude AI-software gebruiken om andere klanten te bedienen.

Drie experts op het gebied van federale contracten zeggen dat het op dit moment onmogelijk is om te bepalen welke klanten van Anthropic nu de banden met het bedrijf moeten verbreken. De aankondiging van Hegseth “is niet vervat in enige wet die we nu kunnen raden”, zegt Alex Major, partner bij advocatenkantoor McCarter & English, dat samenwerkt met technologiebedrijven.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in