Home Nieuws De gedwongen verwijdering van Anthropic uit de Amerikaanse regering bedreigt kritisch AI-onderzoek...

De gedwongen verwijdering van Anthropic uit de Amerikaanse regering bedreigt kritisch AI-onderzoek naar nucleaire veiligheid

3
0
De gedwongen verwijdering van Anthropic uit de Amerikaanse regering bedreigt kritisch AI-onderzoek naar nucleaire veiligheid

De plotselinge afbouw van de antropische technologie binnen de Amerikaanse regering bestaat er bezorgdheid over de vraag of federale functionarissen, zonder toegang tot Claude, achterop zouden kunnen raken in de zoektocht om zich te beschermen tegen de dreiging van AI-gegenereerde of door AI ondersteunde nucleaire en chemische wapens.

Hoewel de uitrol rommelig is geweest – en Claude nog steeds in gebruik is in sommige delen van de regering – zou de anti-antropische houding van de regering-Trump een huiveringwekkend effect kunnen hebben op de samenwerking tussen AI-bedrijven en federale instanties, inclusief partnerschappen die zich richten op kritische nationale veiligheidskwesties die verband houden met dit soort futuristische bedreigingen, vertellen verschillende bronnen. Snel bedrijf. De zorg is dat het verbreken van de banden met het bedrijf zowel het begrip van overheidsonderzoekers over hoe slechte actoren in de toekomst AI zouden kunnen gebruiken om nieuwe soorten nucleaire en biologische wapens te genereren, zou kunnen beperken als de wetenschappelijke vooruitgang in bredere zin zou kunnen tegenhouden.

Anthropic neemt in ieder geval sinds februari 2024 deel aan een formeel samenwerking met de National Nuclear Security Administrationhet federale agentschap dat belast is met het toezicht op de nucleaire voorraad van het land. Het doel van dat werk, zo heeft het bedrijf eerder gezegd, is om “onze AI-modellen te evalueren op potentiële nucleaire en radiologische risico’s.” De zorg hier is dat het ontwikkelen van kernwapens gespecialiseerde kennis vereist, maar dat AI, naarmate het zich verder ontwikkelt, uiteindelijk bedreven zou kunnen worden in het zelfstandig ontwikkelen van deze expertise. Uiteindelijk kan een groot taalmodel iemand misschien helpen een ongelooflijk gevaarlijk wapen te ontwerpen, of zelfs zelf een nieuw wapen te bedenken.

Nu, in de nasleep van de Truth Social-post van president Donald Trump waarin wordt geëist dat federale werknemers stoppen met het gebruik van Anthropic-technologie, is het niet duidelijk wat er zou kunnen gebeuren met de inspanningen van Anthropic om zich tegen deze toekomstige bedreigingen te beschermen. Sommige federale instanties lijken nog steeds af te wegen hoe ze de Claude-gebruiksscenario’s die ze al hebben, moeten benaderen, terwijl andere de toegang tot de tool volledig afsluiten.

“Op aanwijzing van president Trump herziet het ministerie van Energie alle bestaande contracten en toepassingen van antropische technologie”, vertelt een woordvoerder van de NNSA. Snel bedrijf. “Het ministerie blijft vastbesloten ervoor te zorgen dat de technologie die we gebruiken het algemeen belang dient, de Amerikaanse energie en nationale veiligheid beschermt en onze missie bevordert.” Anthropic weigerde commentaar te geven.

Veiligheidsproblemen bij het Energiedepartement

De afgelopen jaren heeft Anthropic samengewerkt met of technologie geleverd aan de talloze agentschappen en nationale laboratoria die onder het ministerie van Energie vallen. Zo begon het Lawrence Livermore National Laboratory met Claude voor Enterprise in 2025 en maakte de tool destijds beschikbaar voor ongeveer 10.000 wetenschappers. Het laboratorium zei vorig jaar dat de technologie zijn onderzoeksinspanningen zou moeten helpen versnellen “op het gebied van nucleaire afschrikking, energieveiligheid, materiaalkunde” en andere gebieden.

Anthropic heeft ook samengewerkt met de National Nuclear Security Agency aan het evalueren van potentiële AI-gerelateerde nucleaire veiligheidsrisico’s. Het bureau heeft Anthropic bijvoorbeeld voorzien van “high-level” statistieken en begeleiding die het bedrijf hebben geholpen de dreiging van zijn eigen technologie te analyseren. Anthropic heeft ook met de NNSA samengewerkt technologie ontwikkelen die AI-chatbotgesprekken kan scannen en categoriseren en kan zoeken naar tekenen dat iemand mogelijk een LLM gebruikt om de bouw van een kernwapen te bespreken.

Uit een inventarisatie voor 2025 voor het Department of Energy bleek dat het bureau Claude gebruikte in het Pacific Northwest National Laboratory, het Lawrence Livermore National Laboratory en het Idaho National Laboratory in pilots. Anthropic is ook een van de partners in de Genesis-missie van het bureau, die tot doel heeft de wetenschappelijke ontwikkeling te versnellen door gebruik te maken van kunstmatige intelligentie.

Deze samenwerkingen kunnen nu in gevaar komen. Claude is “overal” in de laboratoria van het Energiedepartement, ook bij de NNSA, aldus Ann Dunkin, voormalig Chief Information Officer van het departement. Als laboratoria, of de NNSA, “aan projecten werken die Anthropic als hun AI-tool gebruiken, zullen ze op zijn minst moeten stoppen met werken en met een nieuwe leverancier moeten beginnen”, vertelt Durking. Snel bedrijf. “Dit kost tijd en geld. Hoogstwaarschijnlijk zal er (nieuw) werk zijn omdat ze een nieuw model zullen moeten trainen.” Om simulaties uit te voeren waarbij verschillende AI-risico’s worden bestudeerd, is het belangrijk om te begrijpen hoe alle AI-modellen kunnen zich gedragen, voegt ze eraan toe.

Met betrekking tot kernwapens bestaat de zorg dat AI gebruikt zou kunnen worden om voldoende informatie te verzamelen om zo’n wapen te bouwen – of gejailbreakt zou kunnen worden zodat het die informatie zou kunnen verschaffen, zegt Dunkin.

Een voormalige functionaris van het ministerie van Binnenlandse Veiligheid die zich richtte op AI-veiligheidskwesties herhaalt deze zorgen. Antropisch, vertelt de persoon Snel bedrijfwas toonaangevend op het gebied van de evaluatie van de manier waarop AI-modellen, inclusief de zijne, ernstige veiligheidsrisico’s zouden kunnen veroorzaken in verband met chemische en nucleaire wapens. Druk om antropische ziekten weg te nemen riskeert de tijd van mensen te verspillen en zou sowieso niet succesvol kunnen zijn, zeggen ze. Het zorgt er ook voor dat federale functionarissen achterop raken bij hun pogingen om de volledige risico’s van kunstmatige intelligentie te begrijpen, of om volledig te profiteren van de efficiëntie ervan, aangezien Anthropic nog steeds de grootste leverancier is van bepaalde AI-mogelijkheden. ‘Er is geen verbod op Claude voor de slechteriken’, voegt de voormalige functionaris toe.

Over het geheel genomen dreigt de plotselinge wending van de regering tegen Anthropic andere bedrijven af ​​te schrikken die zich zouden willen bezighouden met serieuze kwesties, waaronder kwesties die verband houden met nucleaire veiligheid. “Anthropic heeft geleerd dat als je eenmaal de Amerikaanse overheid dient, je misschien niet het recht hebt om nee te zeggen, althans nu zonder vergelding. Uiteraard zal dat anderen ervan weerhouden om voor de overheid te werken, vooral als het om gevoelige onderwerpen gaat”, zegt Steven Adler, een voormalig OpenAI-medewerker die zich richt op AI-veiligheidskwesties.

“Er schuilt hier een bittere ironie: de regering eist tegelijkertijd van AI-bedrijven hulp bij de nationale veiligheid en maakt het voor verantwoordelijke actoren moeilijker om precies dat te doen”, vertelt Alex Bores, die zich kandidaat stelt voor een zetel in het Huis van Afgevaardigden in New York op een platform dat zich richt op AI-regulering. Snel bedrijf in een verklaring. “AI-bedrijven die samenwerken met de NNSA om risico’s te evalueren, zijn geen aansprakelijkheid, het is een model. Als je het bedrijf straft, zend je precies het verkeerde signaal uit op precies het verkeerde moment.”

Een onvolledig exitplan

Het is niet meteen duidelijk hoe federale agentschappen op dit moment antropische technologie moeten benaderen. Trump gebruikte Truth Social om te eisen dat federale agentschappen “onmiddellijk elk gebruik van de technologie van Anthropic stopzetten”, hoewel dergelijke instructies normaal gesproken worden gecommuniceerd via de federale hoofdinformatiefunctionaris. De regering-Trump werkt naar verluidt aan een uitvoeringsbesluit met betrekking tot Anthropic, terwijl Anthropic een rechtszaak heeft aangespannen om de kwalificatie ervan als een ‘toeleveringsketenrisico’ aan te vechten.

Dat meldt de Algemene Dienstenadministratie één berichtlijkt de Truth Social-post te interpreteren als een nationale veiligheidsrichtlijn. Uit de GitHub-repository van het bureau blijkt dat Claude onlangs is verwijderd vanwege zijn interagency AI-bron, en een persoon binnen het bureau bevestigde dat werknemers intern geen toegang meer hadden tot Claude. Toch vertelt een andere persoon bij het bureau Snel bedrijf dat er feitelijk geen officiële instructies naar de werknemers zijn gestuurd over hoe daadwerkelijk de verwijdering van Claude uit federale gebruiksscenario’s kan worden afgedwongen.

Een grote uitdaging bij het ontnemen van de technologie van Anthropic aan de federale overheid is dat de technologie op vele manieren kan worden geleverd. In het geval van Claude omvat dit producten die rechtstreeks door Anthropic worden verkocht, maar ook integraties met populaire (en controversiële) overheidscontractanten zoals Palantir en Amazon Web Services.

Opmerkelijk, Claude voor de regering wordt nog steeds vermeld als een van de functies die worden aangeboden binnen de Palantir Federal Cloud Service, en verschillende instanties hebben toestemming gegeven voor het gebruik van dit pakket, waaronder het Brookhaven National Lab en het Environmental Management Consolidated Business Center, evenals het ministerie van Buitenlandse Zaken en het ministerie van Financiën. Het product beschrijft Claude als “speciaal gebouwd” om te voldoen aan de hoge veiligheidseisen van de overheid. Palantir heeft ook een langdurige relatie met de NNSA, die dateert van vóór de LLM’s.

De woordvoerder van de NNSA weigerde commentaar te geven op de manier waarop zij het gebruik van Claude en geheime systemen benaderden. Op het moment dat dit artikel werd geschreven, had Palantir niet gereageerd op een verzoek om commentaar.

Aan de militaire kant van de overheid is er veel ophef gemaakt over het feit dat alleen Caude, en niet systemen als ChatGPT, toestemming hebben gekregen om in geheime omgevingen te opereren. Het Pentagon heeft sindsdien een memo naar de medewerkers gestuurd geeft prioriteit aan het verwijderen van Claude van alle systemen waarbij nucleaire beveiliging betrokken is. Geclassificeerde omgevingen zijn ook belangrijk voor civiele instanties. Hoewel minister van Financiën Scott Bessent heeft gezegd dat zijn bureau “eindigend” gebruik van Anthropic-producten en Claude, werd er op een recente bijeenkomst binnen het bureau over AI-gebruik op zijn minst gemopperd dat andere AI-tools niet op vergelijkbare wijze beschikbaar waren voor geheime informatie.


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in