Home Nieuws De Pentagon-deal van OpenAI stelt opnieuw de geloofwaardigheid van Sam Altman in...

De Pentagon-deal van OpenAI stelt opnieuw de geloofwaardigheid van Sam Altman in twijfel

2
0
De Pentagon-deal van OpenAI stelt opnieuw de geloofwaardigheid van Sam Altman in twijfel

Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws in de wereld van AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.

Bekende spanningen rond Sam Altman

OpenAI-CEO Sam Altman sprak zijn steun uit voor Anthropic in zijn geschil met het Pentagon over het gebruik van zijn AI voor het richten op autonome wapens en voor binnenlandse massabewaking. Dat deed hij tijdens een bedrijfsbijeenkomst en tijdens een CNBC Squawbox verschijning afgelopen vrijdag, de dag dat Anthropic effectief op de zwarte lijst werd gezet door de regering-Trump.

Maar twee dagen eerder, op woensdag, had Altman dat naar verluidt wel gedaan al begonnen met praten aan het Pentagon over een contract waarmee OpenAI Anthropic effectief zou kunnen vervangen als de enige leverancier van AI-modellen voor geheime informatie. De dag erna miste Anthropic zijn ‘deadline’ om in te stemmen met de voorwaarden van het Pentagon, Altman aangekondigd op X dat zijn bedrijf een overeenkomst had bereikt met het Pentagon om AI te leveren voor hetzelfde geheime werk. Hij voegde eraan toe dat het contract benadrukte dat het Pentagon zijn AI niet zou gebruiken voor autonome wapens of binnenlandse massabewaking.

Altman legde op X uit dat het contract garanties bevatte dat OpenAI-modellen niet zouden worden gebruikt voor autonome wapens of massasurveillance. Het leek vreemd dat de advocaten van OpenAI dat binnen zo’n krap tijdsbestek zouden kunnen doen, terwijl de advocaten van Anthropic dit niet konden doen in de weken dat het bedrijf met het Pentagon onderhandelde. Altman leek het te proberen weg te redeneren in een tweet van 1 maart: “Ik denk dat Anthropic misschien meer operationele controle wilde hebben dan wij”, schreef hij. (CEO van Anthropic, Dario Amodei, van zijn kant, zei tijdens een bedrijfsbijeenkomst dat de onderhandelingen van OpenAI met het Pentagon neerkwamen op een ‘veiligheidstheater’. volgens De informatie.)

In een interne memo zegt Altman getweet deze week erkende hij dat het een slechte zaak was om te haasten om een ​​deal te sluiten met het Pentagon op dezelfde dag dat Anthropic zijn deal verloor. “De problemen zijn supercomplex en vereisen duidelijke communicatie”, schreef hij. “We probeerden echt de zaken te de-escaleren en een veel slechtere uitkomst te voorkomen, maar ik denk dat het er gewoon opportunistisch en slordig uitzag.”

Dit alles wijst er sterk op dat OpenAI eenvoudigweg dezelfde of soortgelijke alternatieve contracttaal accepteerde die het Pentagon op het elfde uur aan Anthropic aanbood – taal die op een volledig niet-bindende manier beloofde de AI niet te gebruiken voor autonome wapens of massasurveillance.

Op maandagavond, Altman zei op X dat het Pentagon ermee had ingestemd explicieter taal toe te voegen, geworteld in bestaande Amerikaanse wetten, waarin stond dat de modellen van OpenAI niet zouden worden gebruikt voor binnenlands toezicht. Maar maakte Anthropic geen bezwaar tegen de wens van het Pentagon om AI-modellen te gebruiken voor binnenlandse surveillanceprogramma’s die al waren toegestaan ​​onder de bestaande wetten?

Mensen die met Altman hebben gewerkt, zeggen dat de CEO vaak het ene zegt en het andere doet. Bedenk dat de raad van bestuur van OpenAI Altman heeft ontslagen omdat hij niet helemaal eerlijk was geweest over de strategische beslissingen die hij voor het bedrijf had genomen.

In zijn nieuwste Platformer-nieuwsbrief herinnert Casey Newton zich dit citaat uit het boek van Wall Street Journal-verslaggever Keach Hagey over Altman, The Optimist. “Het had (Ilya) Sutskever jaren gekost voordat hij de vinger kon leggen op het gedragspatroon van Altman – hoe de CEO van OpenAI hem het ene ding vertelde, dan het andere zei en deed alsof het verschil een ongeluk was. ‘Oh, ik heb me vergist’, zou Altman zeggen. Sutskever was van mening dat Altman oneerlijk was en chaos veroorzaakte, wat een probleem zou zijn voor elke CEO, maar vooral voor iemand die verantwoordelijk is voor dergelijke potentieel beschavingsveranderende technologie.”

In zijn laatste Platformer nieuwsbriefCasey Newton citeert berichtgeving uit het boek van verslaggever Keach Hagey De Optimistwaarin wordt verhaald hoe Ilya Sutskever, medeoprichter van OpenAI en toenmalig hoofdwetenschapper, zich uiteindelijk ongemakkelijk begon te voelen over het leiderschap van Altman. Zoals Hagey schrijft, kostte het Sutskever jaren om de vinger te leggen op wat hem dwars zat: gesprekken met Altman leken later te verschuiven of zichzelf tegen te spreken, om vervolgens te worden weggewuifd met verklaringen als: “Oh, ik heb me waarschijnlijk verkeerd uitgesproken.” Sutskever ging het gedrag uiteindelijk als oneerlijk en destabiliserend beschouwen – wat volgens het boek ‘een probleem zou zijn voor elke CEO, maar vooral voor iemand die verantwoordelijk is voor dergelijke potentieel beschavingsveranderende technologie.’

Het AI-contractgevecht dat binnen het Pentagon had moeten blijven

Antropische’s geschil met het Pentagon had nooit openbaar mogen worden. Omdat de zaak betrekking heeft op defensie en geheime informatie, had deze persoonlijk en privé in het Pentagon moeten worden afgehandeld. Maar om de een of andere reden besloten minister van Defensie Pete Hegseth en president Donald Trump er een kwestie van cultuuroorlog van te maken. Hun beslissing om Anthropic uiteindelijk tot een ‘toeleveringsketenrisico’ te bestempelen, was willekeurig en grillig, en heeft nog steeds weinig zin. Toch waren de kernkwesties die centraal stonden in het geschil legitieme meningsverschillen, en de manier waarop deze worden opgelost zou blijvende gevolgen kunnen hebben voor de manier waarop AI wordt gebruikt in de overheid, inclusief defensie.

In juli 2025 ondertekende Anthropic een Contract ter waarde van 200 miljoen dollar met het Pentagon om AI te ontwikkelen voor de nationale veiligheid, waardoor het het eerste AI-bedrijf is dat modellen op geheime netwerken inzet (via een partnerschap met Palantir). Er stond een soort gifpil in dat contract. Het heeft nu de relatie van Anthropic met het Pentagon vergiftigd, en het is aannemelijk dat beide partijen een deel van de schuld delen.

Het dispuut begon begin dit jaar toen het Pentagon Anthropic liet weten dat het ‘zijn contracten aan het herzien was’. DoD-functionarissen zeiden dat Anthropic, om de overeenkomst na de oorspronkelijke looptijd te verlengen, alle vangrails zou moeten verwijderen die verhinderen dat zijn AI-modellen worden gebruikt bij operaties die niet door de wet verboden zijn. Het oorspronkelijke contract, dat het Pentagon in 2025 ondertekende, verbood niet uitdrukkelijk het gebruik van de modellen van Anthropic voor het richten op autonome wapens of het uitvoeren van massasurveillance – de twee belangrijkste gebruiksscenario’s van Anthropic. Maar de Servicevoorwaarden van Anthropic deden dat wel, en in het contract stond dat defensiebureaus de AI-modellen konden gebruiken voor alles wat niet verboden was in de Servicevoorwaarden.

Hebben de advocaten van het Ministerie van Defensie deze voorwaarden niet zorgvuldig gelezen voordat ze het contract tekenden? En waarom heeft Anthropic, gezien de gevoelige aard van het werk dat zijn modellen in het Pentagon zouden doen, de taal over massasurveillance en autonome wapens niet rechtstreeks in het contract zelf opgenomen? Nu, zeven maanden later, zegt het Pentagon dat het de overeenkomst zal beëindigen. Er had veel tijd, geld en moeite kunnen worden bespaard als de twee partijen afgelopen juli hun meningsverschillen hadden onder ogen gezien.

Velen in de defensie-industrie zien het kernconflict als een kwestie van wie het beleid mag bepalen voor de manier waarop de strijdkrachten AI gebruiken. Dergelijk beleid is al door het Congres gedicteerd, zo luidt het argument, en als er nieuwe regels nodig zijn, zal het Congres optreden. Defensieagentschappen mogen in deze optiek niet gebonden zijn aan vangrails van particuliere AI-bedrijven.

Vóór de resolutiedeadline van 27 februari stuurden de voorzitters van de Senaatscommissie voor strijdkrachten Roger Wicker (R-Miss.) en Jack Reed (DRI) een brief naar Hegseth en Amodei waarin ze stelden dat contractgeschillen niet de geschikte locatie zijn voor het bepalen van het nationale AI-beleid, en er bij de twee partijen op aandringen om te blijven onderhandelen.

Anthropic betoogt op zijn beurt dat sommige mogelijkheden van AI de wet al voor zijn. AI-modellen kunnen bijvoorbeeld surveillancegegevens op een ongekende schaal analyseren, waardoor de privacy en het recht op vergadering mogelijk worden bedreigd op manieren waarop de bestaande statuten niet volledig anticiperen, aldus Amodei. Door een regel tegen dergelijk gebruik in de Servicevoorwaarden op te nemen, zegt Anthropic dat het zijn eigen bescherming biedt.

Het bezwaar van Anthropic tegen het gebruik van zijn modellen als brein voor autonome wapens, zoals de drones nu actief in het Oekraïne-conflict en in de Gazastrook – is eerder technisch dan juridisch of moreel. Het bedrijf is van mening dat de AI nog niet betrouwbaar genoeg is om die rol te vervullen zonder menselijk toezicht, waardoor het risico groter wordt dat de verkeerde mensen worden aangevallen en mogelijk worden gedood.

In meer burgerlijke tijden zou het Anthropic-DoD-geschil waarschijnlijk achter de schermen zijn uitgewerkt. Ook een technische oplossing lijkt goed denkbaar. Hoewel Anthropic het eerste AI-bedrijf was dat modellen op geheime netwerken installeerde, zou het nooit het enige zijn. Het Pentagon was altijd van plan OpenAI, xAI en Google goed te keuren voor geheim werk. Je zou je een systeem kunnen voorstellen dat voor verschillende taken een beroep doet op verschillende modellen, afhankelijk van hun sterke punten en hun ‘rode lijnen’.

In plaats daarvan werd Anthropic – waarvan de AI naar verluidt door velen in defensie- en inlichtingenkringen hoog aangeschreven staat – plotseling bestempeld als een ‘wakker’ bedrijf onder leiding van ‘linkse fanatici’, zoals de president het op Truth Social stelde, en werd niet alleen door het Pentagon, maar ook door de leveranciers van het agentschap niet meer gebruikt.

Meer AI-dekking van Snel bedrijf:

Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in