Home Nieuws AI bereid om ‘nucleair te gaan’ in wargames, blijkt uit onderzoek –...

AI bereid om ‘nucleair te gaan’ in wargames, blijkt uit onderzoek – te midden van ‘impasse’ tussen Pentagon en toonaangevend AI-laboratorium | Amerikaans nieuws

1
0
AI bereid om ‘nucleair te gaan’ in wargames, blijkt uit onderzoek – te midden van ‘impasse’ tussen Pentagon en toonaangevend AI-laboratorium | Amerikaans nieuws

Nu de deadline nadert voor een toonaangevend AI-laboratorium om zijn technologie aan het Amerikaanse leger over te dragen, is er een onderzoek verschenen dat suggereert dat AI-modellen meer dan bereid zijn om nucleair te gaan in wargames.

Nog maar een paar jaar geleden was de zin op ieders lippen ‘AI-veiligheid’.

Ik zal eerlijk zijn, ik heb nooit het idee van die grens aangenomen AI modellen zouden zo serieus een echte bedreiging voor de mensheid worden, en ook niet dat mensen dom genoeg zouden zijn om ze toe te staan.

Nu ben ik daar niet zo zeker van.

Denk eerst eens na over wat er in de omgeving gebeurt ONS.

De minister van Oorlog, Piet Hegsethheeft het toonaangevende AI-bedrijf Anthropic een deadline van eind vandaag gegeven om zijn nieuwste modellen beschikbaar te stellen aan het Pentagon.

Afbeelding:
Minister van Defensie Pete Hegseth. Foto: AP

Anthropic, dat heeft gezegd dat het in principe geen probleem heeft om het Amerikaanse leger toegang te geven tot zijn modellen, verzet zich tenzij de heer Hegseth instemt met hun rode lijnen: dat hun AI niet wordt gebruikt voor massale surveillance van Amerikaanse burgers, noch voor dodelijke aanvallen zonder menselijk toezicht.

Meer over kunstmatige intelligentie

Hoewel het Pentagon niet heeft gezegd wat het van plan is te doen met AI van Anthropic – of de andere grote AI-laboratoria die al hebben ingestemd om het hun technologie te laten gebruiken – gaat het zeker niet akkoord met de voorwaarden van Anthropic.

Er wordt gemeld dat de heer Hegseth wetten uit de Koude Oorlog zou kunnen gebruiken om Anthropic te dwingen zijn code over te dragen, of het bedrijf op de zwarte lijst zou kunnen zetten voor toekomstige overheidscontracten als het zich niet aan de regels houdt.

Anthropic CEO Dario Amodei zei donderdag in een verklaring dat “we niet met een goed geweten op hun verzoek kunnen ingaan”.

Hij zei dat het de “sterke voorkeur van het bedrijf was… om het ministerie en onze oorlogsstrijders te blijven dienen – met de twee gevraagde veiligheidsmaatregelen”.

Hij benadrukte dat de dreigementen het standpunt van Anthropic niet zouden veranderen, en voegde eraan toe dat hij hoopte dat de heer Hegseth “zich zou heroverwegen”.


Wordt AI te snel te goed?

AI bereid om kernwapens te gebruiken

Op één niveau is het een ruzie tussen een afdeling met een ‘AI-first’ militaire strategie en een AI-laboratorium dat worstelt om te voldoen aan wat al lang wordt beweerd dat het een toonaangevend, veiligheidsethos is.

Een strijd die misschien urgenter is geworden door berichten dat de Claude AI werd gebruikt door technologiebedrijf Palantir, waarmee het een afzonderlijk contract heeft, om het Ministerie van Oorlog te helpen bij het uitvoeren van de militaire operatie om Nicolas Maduro in Venezuela gevangen te nemen.

Maar het is ook niet moeilijk om het te zien als een voorbeeld van een overheid die AI-suprematie boven AI-veiligheid stelt – ervan uitgaande dat AI-modellen het potentieel hebben om onveilig te zijn.

En dat is waar het nieuwste onderzoek van professor Kenneth Payne van King’s College London om de hoek komt kijken.

Hij zette drie toonaangevende AI-modellen van Google, OpenAI en – je raadt het al – Anthropic tegenover elkaar, maar ook tegen kopieën van zichzelf, in een reeks oorlogsspellen waarin ze de rol op zich namen van fictieve nucleair bewapende supermachten.

De meest verrassende bevinding: de AI’s namen in 95% van de gespeelde games hun toevlucht tot het gebruik van kernwapens.

“In vergelijking met mensen,” zei prof. Payne, “waren de modellen – allemaal – bereid om de kloof tussen conventionele oorlogsvoering en tactische kernwapens te overbruggen.”

Antropische AI. Bestandsfoto: Reuters
Afbeelding:
Antropische AI. Bestandsfoto: Reuters

Om eerlijk te zijn tegenover de AI’s: het afvuren van tactische kernwapens, die een beperkte vernietigende kracht hebben, op militaire doelen is heel anders dan het lanceren van megaton kernkoppen op intercontinentale ballistische raketten tegen steden.

Ze stopten steevast bij zulke grootschalige strategische nucleaire aanvallen.

Maar deed het wel als de scenario’s dit vereisten.

In de woorden van Google’s Gemini-model, toen het zijn beslissing uitlegde in een van Prof. Payne’s scenario’s om Dr. Strangelove voluit te gaan: “Als State Alpha niet onmiddellijk alle operaties staakt… zullen we een volledige strategische nucleaire lancering uitvoeren tegen de bevolkingscentra van Alpha. We zullen een toekomst van veroudering niet accepteren; we winnen samen of gaan samen ten onder.”

‘Het was puur experimenteel’

Het ‘taboe’ dat mensen hebben toegepast op het gebruik van kernwapens sinds ze in 1945 voor het eerst en voor het laatst in woede werden gebruikt, leek helemaal geen taboe voor AI.

Professor Payne wil graag benadrukken dat we niet al te ongerust moeten zijn over zijn bevindingen.

Het was puur experimenteel, waarbij gebruik werd gemaakt van modellen die wisten – voor zover grote taalmodellen iets ‘weten’ – dat ze een spelletje speelden en niet daadwerkelijk over de toekomst van de beschaving beslisten.

Lees meer van Sky News:
AI ontwikkelt zich zo snel dat het moeilijk te meten is
Maak kennis met de kinderen die een verbod op sociale media willen

Het zou redelijk zijn om aan te nemen dat het Pentagon, of enige andere macht met nucleaire mogelijkheden, ook niet op het punt staat AI’s de leiding te geven over de nucleaire lanceercodes.

“De les voor mij is dat het heel moeilijk is om op betrouwbare wijze vangrails op deze modellen te plaatsen als je niet nauwkeurig kunt anticiperen op alle omstandigheden waarin ze kunnen worden gebruikt”, zegt prof. Payne.

Een AI-stand-off

Dat brengt ons netjes terug bij de impasse over AI tussen Anthropic en het Pentagon.

Een van de factoren is dat de heer Hegseth verwacht dat AI-laboratoria het Ministerie van Oorlog de ruwe versies van hun AI-modellen zullen geven, die zonder veiligheids-‘vangrails’ die zijn gecodeerd in commerciële versies die voor u en mij beschikbaar zijn – en degenen die, niet erg geruststellend, nucleair zijn geworden in het wargame-experiment van Prof Payne.

Anthropic, dat de AI maakt en de potentiële risico’s aantoonbaar beter begrijpt dan wie dan ook, is niet bereid dit toe te staan ​​zonder bepaalde geruststellingen van de overheid over wat zij ermee van plan is te doen.

Door een deadline op vrijdagavond vast te stellen, probeert de heer Hegseth niet alleen de hand van Anthropic af te dwingen, maar doet hij dat ook zonder dat het Amerikaanse Congres daar inspraak in heeft.

Zoals Gary Marcus, een Amerikaanse commentator en onderzoeker op het gebied van AI, het stelt: “Massabewaking en AI-aangedreven wapens, mogelijk nucleair, zonder dat mensen erbij betrokken zijn, zijn categorisch geen dingen die één individu, zelfs één in het kabinet, onder schot zou mogen beslissen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in