De advocaat van Anthropic zei dat de Amerikaanse regering de klanten van de startup ‘onder druk zet’ om naar rivaliserende AI-aanbieders te gaan, te midden van een escalerend gevecht tussen de Claude-ontwikkelaar en de Ministerie van Defensie.
Tijdens een statusconferentie op dinsdag zei Michael Mongan, een advocaat van Anthropic, dat de beslissing van het ministerie van Defensie om de startup effectief op de zwarte lijst te zetten van samenwerking met het Amerikaanse leger, het bedrijf elke dag ‘reële en onherstelbare schade’ toebrengt.
Mongan zei dat klanten “twijfels beginnen te uiten” over de samenwerking met Anthropic en dat de regering een drukcampagne heeft gevoerd om de klanten van Anthropic zover te krijgen dat ze de aanbieder laten vallen en naar concurrerende AI-bedrijven gaan.
“We hebben universitaire systemen en business-to-business-bedrijven gehad die zijn overgestapt op concurrerende AI-bedrijven”, zei Mongan. “En dit is allemaal het voorspelbare resultaat van de acties van de beklaagde en de onzekerheid die ze hebben gecreëerd, evenals het feit dat beklaagden op positieve wijze contact hebben opgenomen met onze klanten en hen onder druk hebben gezet om te stoppen met werken met Anthropic en over te stappen naar andere AI-bedrijven.”
Vorige maand, nadat de contractonderhandelingen met de AI-startup mislukten, kondigde minister van Defensie Pete Hegseth aan dat Anthropic een “supply chain-risico” was en omschreef hij de stap als een uitbreiding dan direct militair werk.
“Met onmiddellijke ingang mag geen enkele aannemer, leverancier of partner die zaken doet met het Amerikaanse leger enige commerciële activiteit uitoefenen met Anthropic”, zei Hegseth in een X-post op 27 februari.
De reikwijdte van het ketenrisicolabel staat ter discussie. Microsoft vertelde Business Insider eerder dat zijn advocaten concludeerden dat het bedrijf Anthropic nog steeds kan gebruiken niet-militair werk. Het bedrijf diende ook een amicusbrief in, waarin het er bij de federale rechtbank op aandrong de aanwijzing van de overheid als risico voor de toeleveringsketen tijdelijk te blokkeren.
De kwestie concentreert zich op het standpunt van Anthropic dat zijn grensmodel, Claude, niet kan worden ingezet voor autonome wapens en massale surveillance van Amerikaanse burgers. Defensiefunctionarissen hebben in reactie daarop gezegd dat een particulier bedrijf niet kan dicteren wat het leger wel en niet kan doen.
Antropische CEO Dario Amodei zei op 26 februari in een blogpost dat het bedrijf niet kon ingaan op de eis van de overheid voor onbeperkt, legaal gebruik van zijn model. Een dag later bestempelde Hegseth Anthropic formeel als een risico voor de toeleveringsketen.
Anthropic klaagde de regering aan maandag, met het verzoek om een tijdelijk straatverbod om zaken te blijven doen met de regering naarmate de zaak vordert. Het bedrijf zei in de rechtszaak dat het ministerie van Defensie onvoldoende gronden had aangedragen om het als een nationaal veiligheidsrisico te bestempelen.
Bovendien zei het bedrijf dat de benaming nooit op een Amerikaans bedrijf is toegepast en dat de maatregel een vergeldingsmaatregel was, die in strijd was met de First Amendment-rechten van het bedrijf om zijn mening te uiten over de veiligheid en beperkingen van AI.
De gevolgen van de zwarte lijst van Anthropic Volgens juridische documenten is het snel gegaan.
Krishna Rao, Chief Financial Officer van Anthropic, zei dit maandag in een verklaring dat het Ministerie van Defensie contact heeft opgenomen met verschillende ‘portefeuillebedrijven over hun gebruik van Claude’ en dat die klanten ‘bezorgd en onzeker zijn geworden’ over hun vermogen om het model te gebruiken.
De CFO zei dat de actie van de regering de inkomsten van Anthropic in 2026 met “meerdere miljarden dollars” zou kunnen verminderen.
Woordvoerders van Anthropic en het Pentagon, evenals de advocaat van Anthropic, reageerden niet op een verzoek om commentaar.


