De regering-Trump heeft dinsdag in een rechtszaak betoogd dat het de rechten van Anthropic op het eerste amendement niet heeft geschonden door de AI-ontwikkelaar als een risico voor de toeleveringsketen te bestempelen, en voorspelde dat de rechtszaak van het bedrijf tegen de regering zal mislukken.
“Het Eerste Amendement is geen vrijbrief om eenzijdig contractvoorwaarden aan de regering op te leggen, en Anthropic haalt niets aan om zo’n radicale conclusie te ondersteunen”, schreven advocaten van het Amerikaanse ministerie van Justitie.
Het antwoord werd ingediend bij een federale rechtbank in San Francisco, een van de twee locaties waar Anthropic gevestigd is het aanvechten van het besluit van het Pentagon om sancties op te leggen het bedrijf met een label dat bedrijven kan uitsluiten van defensiecontracten vanwege zorgen over potentiële beveiligingsproblemen. Anthropic stelt dat de regering-Trump haar autoriteit heeft overschreden door het label toe te passen en te voorkomen dat de technologieën van het bedrijf binnen het departement worden gebruikt. Als de benoeming standhoudt, kan Anthropic tot miljarden dollars verliezen qua verwachte omzet dit jaar.
Anthropic wil de normale gang van zaken hervatten totdat de rechtszaak is opgelost. Rita Lin, de rechter die toezicht houdt op de zaak San Francisco, heeft aanstaande dinsdag een hoorzitting gepland om te beslissen of het verzoek van Anthropic wordt gehonoreerd.
Advocaten van het ministerie van Justitie, die voor het Ministerie van Defensie en andere instanties in de dinsdag ingediende aanvraag schreven, beschreven de zorgen van Anthropic over mogelijk omzetverlies als “juridisch onvoldoende om onherstelbare schade te berokkenen” en riepen Lin op om het bedrijf uitstel te ontzeggen.
De advocaten schreven ook dat de regering-Trump gemotiveerd was om op te treden vanwege “bezorgdheid over het potentiële toekomstige gedrag van Anthropic als het toegang zou behouden” tot technologiesystemen van de overheid. “Niemand heeft beweerd de expressieve activiteit van Anthropic te beperken”, schreven ze.
De regering betoogt dat de drang van Anthropic om de manier waarop het Pentagon zijn AI-technologie kan gebruiken, te beperken, ertoe heeft geleid dat minister van Defensie Pete Hegseth “redelijkerwijs” heeft vastgesteld dat “personeel van Anthropic zou kunnen saboteren, kwaadwillig ongewenste functies zou kunnen introduceren, of anderszins het ontwerp, de integriteit of de werking van een nationaal veiligheidssysteem zou kunnen ondermijnen.”
Het ministerie van Defensie en Anthropic hebben ruzie gemaakt over mogelijke beperkingen op de Claude AI-modellen van het bedrijf. Anthropic is van mening dat zijn modellen niet mogen worden gebruikt om brede surveillance van Amerikanen mogelijk te maken en dat ze momenteel niet betrouwbaar genoeg zijn om volledig autonome wapens aan te drijven.
Verschillende juridische experts vertelden eerder aan WIRED dat Anthropic een sterk argument heeft dat de maatregel in de toeleveringsketen neerkomt op illegale vergelding. Maar rechtbanken geven vaak de voorkeur aan nationale veiligheidsargumenten van de regering, en functionarissen van het Pentagon hebben Anthropic beschreven als een aannemer die malafide is geworden en dat zijn technologieën niet te vertrouwen zijn.
“In het bijzonder maakte DoW zich zorgen dat het toestaan van Anthropic voortdurende toegang tot de technische en operationele oorlogsinfrastructuur van DoW onaanvaardbare risico’s zou introduceren in de toeleveringsketens van DoW”, aldus het document van dinsdag. “AI-systemen zijn acuut kwetsbaar voor manipulatie, en Anthropic zou kunnen proberen zijn technologie uit te schakelen of preventief het gedrag van zijn model te veranderen, vóór of tijdens lopende oorlogsoperaties, als Anthropic – naar eigen goeddunken – vindt dat de ‘rode lijnen’ van het bedrijf worden overschreden.”
Het ministerie van Defensie en andere federale instanties werken eraan om de AI-tools van Anthropic de komende maanden te vervangen door producten van concurrerende technologiebedrijven. Een van de belangrijkste manieren waarop het leger Claude gebruikt, is voorbij Palantir-software voor gegevensanalysehebben mensen die bekend zijn met de zaak aan WIRED verteld.
In de aanvraag van dinsdag voerden de advocaten aan dat het Pentagon “niet zomaar een schakelaar kan omzetten op een moment dat Anthropic momenteel het enige AI-model is dat is goedgekeurd voor gebruik” op de “geheime systemen van het ministerie en dat er gevechtsoperaties met hoge intensiteit aan de gang zijn.” De afdeling werkt eraan om AI-systemen van Google, OpenAI en xAI als alternatieven in te zetten.
Een aantal bedrijven en groepen, waaronder AI-onderzoekersMicrosoft, een federale werknemersvakbond en voormalige militaire leiders hebben gerechtelijke documenten ingediend ter ondersteuning van Anthropic. Er zijn geen aanvragen ingediend ter ondersteuning van de regering.
Anthropic heeft tot vrijdag de tijd om een tegenreactie in te dienen op de argumenten van de regering.



