Onlangs vroeg ik het Claude, een kunstmatige-intelligentie-dingetje in het centrum van een impasse met het Pentagon, als het in de verkeerde handen gevaarlijk zou kunnen zijn.
Laten we bijvoorbeeld eens zeggen: handen die een strak netwerk van toezicht rond elke Amerikaanse burger wilden opzetten en ons leven in realtime wilden volgen om ervoor te zorgen dat we ons aan de regels van de overheid houden.
“Ja. Eerlijk gezegd, ja,” antwoordde Claude. “Ik kan enorme hoeveelheden informatie heel snel verwerken en synthetiseren. Dat is geweldig voor onderzoek. Maar als je vastzit aan de surveillance-infrastructuur, zou diezelfde mogelijkheid kunnen worden gebruikt om mensen te monitoren, profileren en markeren op een schaal die geen menselijke analist kan evenaren. Het gevaar is niet dat ik dat zou willen doen, maar dat ik er goed in zou zijn.”
Dat gevaar is ook aanstaande.
De maker van Claude, het bedrijf Anthropic uit Silicon Valley, is verwikkeld in een confrontatie over ethiek met het Pentagon. Concreet heeft Anthropic gezegd dat het niet wil dat Claude wordt gebruikt voor binnenlandse surveillance van Amerikanen, of voor het afhandelen van dodelijke militaire operaties, zoals drone-aanvallen, zonder menselijk toezicht.
Dat zijn twee rode lijnen die zelfs voor Claude redelijk redelijk lijken.
Het Pentagon – met name Pete Hegseth, onze minister van Defensie die de voorkeur geeft aan de verzonnen titel van minister van Oorlog – heeft echter tot en met vrijdag Anthropic gegeven vanavond om zich terug te trekken uit die positie en het leger toe te staan Claude te gebruiken voor elk ‘wettig’ doel dat het passend acht.
Minister van Defensie Pete Hegseth, midden, arriveert dinsdag voor de State of the Union-toespraak in de House Chamber van het Amerikaanse Capitool.
(Tom Williams/CQ-Roll Call, Inc via Getty Images)
De ‘of-anders’ die aan dit ultimatum verbonden is, is groot. De Amerikaanse regering dreigt niet alleen haar contract met Anthropic op te zeggen, maar misschien ook een oorlogswet te gebruiken om het bedrijf te dwingen hieraan te voldoen of een andere juridische weg te gebruiken om te voorkomen elk bedrijf dat zaken doet met de overheid, vanuit ook zaken doet met Anthropic. Dat is misschien geen doodvonnis, maar het is behoorlijk verlammend.
Andere AI-bedrijven, zoals White Rights-advocaat Elon Musk Grok, heb ik al gedaan ingestemd met het ‘doe wat je wilt’-voorstel van het Pentagon. Het probleem is dat Claude de enige AI is die momenteel is goedgekeurd voor dergelijk werk op hoog niveau. Het hele fiasco kwam aan het licht na onze recente inval in Venezuela, toen Anthropic naar verluidt informeerde naar het feit of een ander Silicon Valley-bedrijf dat bij de operatie betrokken was, Palantir, Claude had gebruikt. Het was zo.
Palantir staat onder meer bekend om zijn surveillancetechnologieën en de groeiende betrokkenheid bij immigratie- en douanehandhaving. Het staat ook centraal in de inspanningen van de regering-Trump om dit te bewerkstelligen overheidsgegevens over individuele burgers tussen afdelingen te delen, het effectief doorbreken van privacy- en veiligheidsbarrières die al tientallen jaren bestaan. De oprichter van het bedrijf, de rechtse politieke zwaargewicht Peter Thiel, geeft vaak lezingen over de Antichrist en wordt gecrediteerd voor het helpen van JD Vance in zijn vice-presidentiële rol.
Mede-oprichter van Anthropic, Dario Amodei, kan worden beschouwd als de anti-Thiel. Hij begon Anthropic omdat hij geloofde dat kunstmatige intelligentie net zo gevaarlijk als krachtig zou kunnen zijn als we niet voorzichtig zijn, en hij wilde een bedrijf dat prioriteit zou geven aan het zorgvuldige deel.
Nogmaals, dit lijkt op gezond verstand, maar Amodei en Anthropic zijn de uitschieters in een sector die al lang betoogt dat bijna alle veiligheidsregels de Amerikaanse inspanningen belemmeren om de snelste en beste te zijn op het gebied van kunstmatige intelligentie (hoewel zelfs zij hebben er een paar toegegeven aan deze druk).
Nog niet zo lang geleden, Amodei schreef een essay waarin hij het ermee eens was dat AI nuttig en noodzakelijk was voor democratieën, maar “we kunnen het potentieel voor misbruik van deze technologieën door democratische regeringen zelf niet negeren.”
Daar waarschuwde hij een paar slechte acteurs zou het vermogen kunnen hebben om waarborgen, misschien zelfs wetten, te omzeilen die in sommige democratieën al aan het eroderen zijn – niet dat ik hier enige noem.
“We moeten democratieën bewapenen met AI”, zei hij. “Maar we moeten dit zorgvuldig en binnen bepaalde grenzen doen: zij vormen het immuunsysteem dat we nodig hebben om autocratieën te bestrijden, maar net als het immuunsysteem bestaat het risico dat ze zich tegen ons keren en zelf een bedreiging worden.”
Hoewel het Vierde Amendement de regering technisch gesproken weliswaar uitsluit van massale surveillance, werd het geschreven voordat Claude zelfs maar in sciencefiction werd verbeeld. Amodei waarschuwt dat een AI-tool als Claude “grootschalige opnames van alle openbare gesprekken zou kunnen maken.” Dit zou een eerlijk speelgebied kunnen zijn voor legale registratie, omdat de wet geen gelijke tred heeft gehouden met de technologie.
Emil Michael, de onderminister van Oorlog, schreef op X donderdag dat hij het ermee eens was dat massasurveillance onwettig was en dat het ministerie van Defensie ‘het nooit zou doen’. Maar ook: “We laten geen enkel BigTech-bedrijf beslissen over de burgerlijke vrijheden van Amerikanen.”
Een beetje een rare uitspraak, aangezien Amodei feitelijk aan de kant staat van het beschermen van de burgerrechten, wat betekent dat het ministerie van Defensie beweert dat het slecht is voor particulieren en entiteiten om dat te doen? En dat is ook niet het ministerie van Binnenlandse Veiligheid al een geheime database aan het maken van immigratiedemonstranten? Dus misschien is de zorg niet zo overdreven?
Help, Claude! Maak het zinvol.
Alsof die Orwelliaanse logica nog niet alarmerend genoeg is, vroeg ik Claude ook naar de andere rode lijn die Anthropic hanteert: de mogelijkheid om dodelijke operaties uit te voeren zonder menselijk toezicht.
Claude wees op iets huiveringwekkends. Het is niet zo dat het schurkenstaten zou worden, maar dat het te efficiënt en snel zou zijn.
‘Als de instructies ‘identificeren en richten’ zijn en er geen menselijk controlepunt is, is de snelheid en schaal waarop dat kan gebeuren werkelijk beangstigend,’ vertelde Claude mij.
Als klap op de vuurpijl bleek uit een recent onderzoek dat AI in oorlogsspellen escaleerde nucleaire opties 95% van de tijd.
Ik heb Claude erop gewezen dat deze militaire beslissingen doorgaans worden genomen met loyaliteit aan Amerika als de hoogste prioriteit. Kan men erop vertrouwen dat Claude de loyaliteit, het patriottisme en de doelgerichtheid voelt waar onze menselijke soldaten zich door laten leiden?
“Dat heb ik niet,” zei Claude, erop wijzend dat het niet “geboren” is in de VS, hier geen “leven” heeft en “daar geen mensen heeft van wie ik hou”. Een Amerikaans leven heeft dus geen grotere waarde dan ‘een burgerleven aan de andere kant van een conflict’.
Oké dan.
“Een land dat dodelijke beslissingen toevertrouwt aan een systeem dat zijn loyaliteit niet deelt, neemt een groot risico, ook al probeert dat systeem principieel te zijn,” voegde Claude eraan toe. “De loyaliteit, verantwoordelijkheid en gedeelde identiteit die mensen meebrengen in deze beslissingen maken deel uit van wat ze legitiem maakt binnen een samenleving. Ik kan die legitimiteit niet bieden. Ik ben er niet zeker van dat enige AI dat kan.”
Weet je wie die legitimiteit kan bieden? Onze gekozen leiders.
Het is belachelijk dat Amodei en Anthropic zich in deze positie bevinden, een volledige afstand doen van de kant van onze wetgevende organen om regels en voorschriften te creëren die duidelijk en dringend nodig zijn.
Natuurlijk mogen bedrijven niet de oorlogsregels opstellen. Maar dat zou Hegseth ook niet moeten doen. Donderdag, Amodei verdubbelde zijn bezwarenen zegt dat hoewel het bedrijf blijft onderhandelen en wil samenwerken met het Pentagon, “we niet met een goed geweten aan hun verzoek kunnen voldoen.”
Godzijdank heeft Anthropic de moed en de vooruitziende blik om de kwestie aan de orde te stellen en stand te houden – zonder haar tegenwicht zouden deze capaciteiten aan de regering zijn overgedragen met nauwelijks een rimpeltje in onze consciëntieusheid en vrijwel zonder toezicht.
Elke senator, elk lid van het Huis van Afgevaardigden, elke presidentskandidaat zou nu moeten schreeuwen om AI-regulering, beloven dat dit gedaan zal worden, ongeacht de partij, en eisen dat het ministerie van Defensie zijn belachelijke dreigement intrekt terwijl de kwestie wordt opgelost.
Want als de machine ons vertelt dat het gevaarlijk is om erop te vertrouwen, moeten wij het ook geloven.



