03-03-2026T05:57:47.763Z
Lees in app
en begin nu met lezen.
Heeft u een account? .
- Medewerkers van OpenAI bespreken publiekelijk de overeenkomst van het bedrijf met het ministerie van Defensie.
- Sommigen hebben opgeroepen tot meer duidelijkheid; anderen zeggen dat het contract sterke bescherming biedt
- Sam Altman zei dat OpenAI samenwerkt met het Pentagon om zijn contract te wijzigen na een reactie.
Medewerkers van OpenAI geven hun mening over de deal van het bedrijf met het Pentagon.
In berichten op X afgelopen weekend vroegen huidige en voormalige medewerkers zich af of OpenAI zijn veiligheidsprincipes in gevaar heeft gebracht tijdens de onderhandelingen met het Amerikaanse ministerie van Defensie – en hoe de overeenkomst zich verhoudt tot het standpunt van de concurrent van Anthropic.
Vorige week, Sam Altman bevestigd De deal van OpenAI om het ministerie van Defensie toegang te geven tot zijn AI-modellen. De overeenkomst kwam tot stand nadat Anthropic weigerde regeringsvoorwaarden te accepteren die het mogelijk hadden kunnen maken dat zijn model, Claude, werd ingezet voor massale binnenlandse surveillance of autonome dodelijke wapens.
OpenAI zei zaterdag in een blogpost dat het contract met het ministerie van Defensie “beter” is en meer omvat veiligheidsleuningen dan het oorspronkelijke contract van Anthropic.
Maandagavond zei Altman, na zorgen over de deal, op X dat OpenAI samenwerkt met het Pentagon om “enkele toevoegingen aan onze overeenkomst aan te brengen”.
Dit is wat OpenAI-medewerkers te zeggen hebben:
Boaz Barak
Boaz Barak, een lid van de technische staf van OpenAI die zich bezighoudt met afstemming en tevens professor in de computerwetenschappen aan Harvard, verzette zich tegen het idee dat OpenAI de beveiliging had verzwakt.
In een post op X op zondag zei Barak dat er een verhaal is dat Anthropic een “prachtig contract” had dat de Amerikaanse regering ervan weerhield het te gebruiken voor massaal binnenlands toezicht of autonome dodelijke wapensen dat de deal van OpenAI deze risico’s nu zou ontketenen.
“Het is verkeerd om het OAI-contract te presenteren alsof het dezelfde deal is die Anthropic heeft afgewezen, of zelfs alsof het de rode lijnen minder beschermt dan de deal die Anthropic al eerder had gesloten”, schreef hij.
“Het is duidelijk dat ik niet alle details ken van wat Anthropic eerder had, maar op basis van wat ik weet is het zeer waarschijnlijk dat het contract dat OAI heeft getekend, geeft meer garanties voor geen gebruik van modellen voor massale binnenlandse surveillance of autonome dodelijke wapens dan Anthropic ooit heeft gehad”, voegde hij eraan toe.
In een andere X-post op maandag zei Barak: “De rode lijn van het niet gebruiken van AI voor binnenlandse massasurveillance is niet de rode lijn van Anthropic – die zou de onze moeten zijn.”
Mijl Brundage
Miles Brundage, voormalig hoofd beleidsonderzoek van OpenAI, zei zaterdag in een post op X dat “in het licht van wat externe advocaten en het Pentagon zeggen, de standaardaanname van OpenAI-werknemers hier helaas moet zijn dat OpenAI het heeft gezwicht + het heeft geframed als niet toegevend, en Anthropic heeft genaaid terwijl het hen heeft geframed als hulp.”
“Voor alle duidelijkheid: OAI is een complexe organisatie, en ik denk dat veel mensen die hierbij betrokken zijn hard hebben gewerkt voor wat zij als een eerlijk resultaat beschouwen. Sommige anderen vertrouw ik helemaal niet, vooral als het gaat om de omgang met de overheid en de politiek,” voegde hij eraan toe.
Later verduidelijkte hij zondag in een antwoord op zijn bericht dat hij “waarschijnlijk niet ’toegegeven’ had moeten zeggen in de eerste tweet.”
“OpenAI heeft misschien wel gekregen wat ze wilden en tegelijkertijd had dit de onderhandelingspositie van Anthropic kunnen verzwakken, omdat Anthropic zich bekommerde om een detail dat OAI niet had, en afweek van hun POV”, zei hij.
Clive Chan
Clive Chan, lid van de technische staf bij OpenAI, zei zondag in een post op X dat hij gelooft dat het contract van het bedrijf garanties bevat tegen het gebruik van zijn modellen voor massale binnenlandse surveillance of autonome dodelijke wapens. Hij voegde eraan toe dat hij “intern pleit voor het vrijgeven van meer informatie” over de overeenkomst.
“Als we later vernemen dat dit niet het geval is, zal ik er intern voor pleiten om het contract te beëindigen”, voegde hij eraan toe.
In een antwoord op zijn bericht erkende Chan dat er waarschijnlijk grenzen zijn aan wat publiekelijk kan worden bekendgemaakt over defensiecontracten. Toch zei hij dat het bedrijf had moeten anticiperen op de publieke zorgen en vooraf duidelijkere antwoorden had moeten voorbereiden.
Na de publicatie van OpenAI’s blogpost zei Chan zondag op X dat de post “de meeste” van zijn zorgen dekt. “Dank aan het team dat ze super attent zijn geweest op de aanpak hiervan”, voegde hij eraan toe.
Mohammed Beiers
Mohammad Bavarian, een onderzoekswetenschapper bij OpenAI, zei maandag in een X-post dat hij niet denkt dat er een “onoverbrugbare kloof bestaat tussen wat Anthropic wil en de eisen van DoW”, eraan toevoegend dat “het met koelere hoofden mogelijk zou moeten zijn om de kloof te overbruggen.”
De benaming van het Pentagon van Antropisch als een risico voor de toeleveringsketen is “oneerlijk, onverstandig en een extreem overdreven reactie”, schreef Bavarian maandag.
“Het aanwijzen van een organisatie die zoveel heeft bijgedragen aan het bevorderen van AI en met zoveel integriteit, is niet goed voor het land en de mensheid”, voegde hij eraan toe.
Noam Bruin
Noam Brown, een onderzoeker bij OpenAI, zei dinsdag in een X-post dat de oorspronkelijke taal in de overeenkomst van het bedrijf met het ministerie van Oorlog ‘legitieme vragen onbeantwoord liet’ – vooral rond nieuwe manieren waarop AI mogelijk wettig toezicht mogelijk zou kunnen maken.
Nadat OpenAI zijn blogpost maandagavond had bijgewerkt, zei Brown dat “de taal nu is bijgewerkt om dit aan te pakken”, maar hij is er sterk van overtuigd dat “de wereld niet hoeft te vertrouwen op het vertrouwen in AI-laboratoria of inlichtingendiensten voor hun veiligheid en beveiliging.”
Brown voegde eraan toe dat de inzet bij de NSA en andere inlichtingendiensten van het Ministerie van Oorlog zou worden opgeschort om tijd te geven om de mogelijke mazen in de wet aan te pakken ‘via het democratische proces voorafgaand aan de inzet’.
“Ik weet dat wetgeving soms traag kan zijn, maar ik ben bang voor een hellend vlak waarin we gewend raken aan het omzeilen van het democratische proces voor belangrijke beleidsbeslissingen”, schreef hij.


