Home Nieuws Hoe AI-modellen voor oorlog er eigenlijk uitzien

Hoe AI-modellen voor oorlog er eigenlijk uitzien

1
0
Hoe AI-modellen voor oorlog er eigenlijk uitzien

Antropisch misschien wel twijfels over het geven van onbelemmerde toegang aan het Amerikaanse leger aan zijn AI-modellen, maar sommige startups bouwen geavanceerde AI specifiek voor militaire toepassingen.

Smack-technologieëndat deze week een financieringsronde van 32 miljoen dollar aankondigde, ontwikkelt modellen die naar eigen zeggen binnenkort de capaciteiten van Claude zullen overtreffen als het gaat om het plannen en uitvoeren van militaire operaties. En, in tegenstelling tot Anthropic, lijkt de startup minder bezorgd over het verbieden van specifieke vormen van militair gebruik.

“Als je in het leger dient, leg je een eed af dat je eervol en wettig zult dienen, in overeenstemming met de oorlogsregels”, zegt CEO Andy Markoff. “Voor mij moeten de mensen die de technologie inzetten en ervoor zorgen dat deze op een ethische manier wordt gebruikt, een uniform dragen.”

Markoff is bepaald geen gewone AI-manager. Als voormalig commandant van het Special Operations Command van de US Marine Forces hielp hij bij de uitvoering van speciale operaties van de speciale strijdkrachten met hoge inzet in Irak en Afghanistan. Hij was medeoprichter van Smack samen met Clint Alanis, een andere ex-marinier, en Dan Gould, een computerwetenschapper die eerder werkte als VP technologie bij Tinder.

De modellen van Smack leren optimale missieplannen te identificeren via een proces van vallen en opstaan. vergelijkbaar met hoe Google zijn programma AlphaGo uit 2017 trainde. In het geval van Smack houdt de strategie in dat het model door verschillende oorlogsspelscenario’s wordt geleid en dat deskundige analisten een signaal geven dat het model vertelt of de gekozen strategie vruchten zal afwerpen. De startup heeft misschien niet het budget van een conventioneel AI-laboratorium, maar geeft miljoenen uit om zijn eerste AI-modellen te trainen, zegt Markoff.

Gevechtslijnen

Militair gebruik van AI is een hot topic geworden in Silicon Valley na ambtenaren van het ministerie van Defensie ging de confrontatie aan met de leidinggevenden van Anthropic over de voorwaarden van een contract van ongeveer $ 200 miljoen.

Een van de problemen die tot de ineenstorting leidden, wat ertoe leidde dat minister van Defensie Pete Hegseth Anthropic verklaarde een supply chain-risicowas de wens van Anthropic om het gebruik van zijn modellen in autonome wapens te beperken.

Markoff zegt dat de furore het feit verdoezelt dat de huidige grote taalmodellen niet geoptimaliseerd zijn voor militair gebruik. Algemene modellen zoals Claude zijn goed in het samenvatten van rapporten, zegt hij. Maar ze zijn niet getraind op het gebied van militaire data en missen een menselijk begrip van de fysieke wereld, waardoor ze niet geschikt zijn voor het controleren van fysieke hardware. “Ik kan je vertellen dat ze absoluut niet in staat zijn tot doelidentificatie”, beweert Markoff.

“Voor zover ik weet heeft niemand binnen het Ministerie van Oorlog het over het volledig automatiseren van de moordketen”, beweert hij, verwijzend naar de stappen die betrokken zijn bij het nemen van beslissingen over het gebruik van dodelijk geweld.

Missieomvang

De VS en andere legers gebruiken in bepaalde situaties al autonome wapens, onder meer in raketverdedigingssystemen die met bovenmenselijke snelheden moeten reageren.

“De VS en meer dan dertig andere staten zetten al wapensystemen in met een verschillende mate van autonomie, waaronder enkele die ik als volledig autonoom zou omschrijven”, zegt Rebecca Crootof, een autoriteit op het gebied van de juridische kwesties rond autonome wapens bij de Verenigde Staten. Rechtsgeleerdheid van de Universiteit van Richmond.

Volgens Markoff zouden gespecialiseerde modellen zoals waar Smack aan werkt in de toekomst ook kunnen worden gebruikt voor missieplanningsdoeleinden. De modellen van het bedrijf zijn bedoeld om commandanten te helpen een groot deel van het werk dat gepaard gaat met het schetsen van missieplannen te automatiseren. Het plannen van militaire missies gebeurt nog steeds doorgaans handmatig met whiteboards en notitieblokken, zegt Markoff.

Als de VS oorlog zouden voeren met een ‘nabije collega’ zoals Rusland of China, zegt Markoff, zou geautomatiseerde besluitvorming de VS een broodnodige ‘beslissingsdominantie’ kunnen bieden.

Maar het is nog steeds een open vraag of AI in dergelijke omstandigheden op betrouwbare wijze kan worden gebruikt. Een recent experiment, uitgevoerd door een onderzoeker aan King’s College London, toonde op alarmerende wijze aan dat LLM’s had de neiging te escaleren nucleaire conflicten in oorlogsspellen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in