Home Nieuws DOJ beweert dat het eerste amendement Anthropic niet zal beschermen in contractgeschillen

DOJ beweert dat het eerste amendement Anthropic niet zal beschermen in contractgeschillen

2
0
DOJ beweert dat het eerste amendement Anthropic niet zal beschermen in contractgeschillen

De Amerikaanse regering dringt er bij een federale rechter op aan om het bod van Anthropic om zijn status als risico voor de toeleveringsketen ongedaan te maken, af te wijzen.

In een rechtszaak dinsdag zeiden advocaten van het ministerie van Defensie dat federale agentschappen rechtmatig handelden toen ze de technologie van Anthropic geleidelijk afschaften nadat het bedrijf weigerde in te stemmen met contractvoorwaarden die ‘elk rechtmatig gebruik’ van zijn AI door het leger toestonden. Het Pentagon zei dat het bedrijf een nationaal veiligheidsrisico vormt.

Het geschil concentreert zich op een bredere botsing tussen de militair gebruik van AI en de contractuele veiligheidslimieten die het stelt met de technologieleveranciers.

Anthropic, dat het Claude AI-model bouwt, heeft de regering aangeklaagd nadat president Donald Trump overheidsinstanties had bevolen te stoppen met het gebruik van de technologie van Anthropic, en het ministerie van Defensie het bedrijf een “risico van de toeleveringsketen,‘ waardoor het feitelijk geen federale contracten kon afsluiten. Het bedrijf voerde aan dat deze stap onwettige vergelding was die verband hield met zijn veiligheidsbeleid.

De regering zei op haar beurt dat ze eenvoudigweg haar autoriteit uitoefende om leveranciers te kiezen – en dat de beperkingen en het gedrag van Anthropic het tot een onaanvaardbare partner voor de nationale veiligheid maakten.

Vertegenwoordigers van het Ministerie van Defensie reageerden niet onmiddellijk op verzoeken om commentaar van Business Insider.

Volgens de indiening escaleerde het conflict nadat Anthropic weigerde zijn gebruiksbeleid te wijzigen, dat bepaalde toepassingen zoals wapenontwikkeling en surveillance beperkt. Ambtenaren zeiden dat deze beperkingen een particulier bedrijf ongepaste invloed zouden kunnen geven op militaire operaties en besluitvorming.

De regering voerde ook aan dat de rol van Anthropic als ontwikkelaar en onderhouder van haar AI-systemen inherente risico’s met zich meebrengt. Omdat dergelijke systemen voortdurende updates en afstemming vereisen, waarschuwden functionarissen dat het bedrijf ‘het ontwerp en/of de functionaliteit’ van zijn tools zou kunnen ondermijnen of de prestaties tijdens kritieke operaties zou kunnen veranderen.

“We beoordelen de aanvraag van de regering en kijken ernaar uit om onze reactie aan de rechtbank voor te leggen”, aldus het bedrijf in een verklaring. “Zoals we vorige week hebben gedeeld, verandert het zoeken naar rechterlijke toetsing niets aan onze al lang bestaande inzet om AI in te zetten om onze nationale veiligheid te beschermen, maar dit is een noodzakelijke stap om ons bedrijf, onze klanten en onze partners te beschermen.”

Anthropic heeft betoogd dat de acties in strijd zijn met de rechten van het Eerste Amendement en de bescherming van een eerlijk proces. De regering duwde echter terug, met het argument dat het geschil over commercieel gedrag gaat – en niet over beschermde meningsuiting – en dat instanties vrij zijn om te beslissen “met wie (zij) zaken zullen doen” bij aanbestedingen.

De indiening wijst ook de claims van Anthropic over onherstelbare schade af, waarbij potentiële bedrijfsverliezen als “speculatief” worden omschreven en wordt aangevoerd dat eventuele schade kan worden aangepakt via contractuele oplossingen.

Een hoorzitting over het verzoek van Anthropic om een ​​voorlopig bevel is gepland op 24 maart bij de federale rechtbank in San Francisco.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in