Home Nieuws Anthropic is op zoek naar een wapen- en explosievenexpert. Dit is waarom

Anthropic is op zoek naar een wapen- en explosievenexpert. Dit is waarom

4
0
Anthropic is op zoek naar een wapen- en explosievenexpert. Dit is waarom

Veel mensen zagen het voor het eerst op X: een zeer ongebruikelijke en verontrustende vacature. Sommigen dachten dat het een grap was. Anderen werden herinnerd aan Cyberdyne Systems, het technologiebedrijf in de Terminator franchise die per ongeluk Skynet uitvindt.

Maar op LinkedIn, waar ze een andere taal sprekenAnthropic had slechts een advertentie geplaatst op zoek naar een Beleidsmanager chemische wapens en explosieven met hoog rendement. De functiebeschrijving voegde meer details toe.

“Deze rol biedt een unieke kans om vorm te geven aan de manier waarop AI-systemen omgaan met gevoelige chemische en explosieveninformatie”, aldus het rapport. “Je werkt samen met toonaangevende AI-veiligheidsonderzoekers terwijl je kritieke problemen aanpakt bij het voorkomen van catastrofaal misbruik. Als je graag je expertise wilt gebruiken om ervoor te zorgen dat AI-systemen veilig en nuttig blijven, willen we graag van je horen.”

Mashable nam contact op met Anthropic en het bedrijf zorgde voor meer context.

“Ons gebruiksbeleid verbiedt het gebruik van Anthropic-producten of -diensten om wapens te ontwikkelen of te ontwerpen”, vertelde een woordvoerder van het bedrijf ons. “Deze rol is weggelegd voor het Safeguards-team, dat verantwoordelijk is voor het voorkomen van misbruik van onze modellen.”

De woordvoerder benadrukte dat Anthropic expliciet verbiedt dat zijn AI of enige van zijn technologie wordt gebruikt voor het maken van wapens. In plaats daarvan zal de in New York gevestigde manager de taak krijgen om veiligheidsmaatregelen te bouwen en af ​​te dwingen om ervoor te zorgen dat wapens veilig zijn niet gemaakt van de technologie van Anthropic.

Het bedrijf probeert experts op gevoelige gebieden in te huren die ervoor kunnen zorgen dat de AI van Anthropic uit snode handen wordt gehouden, aldus de woordvoerder.

Antropisch recent bevond zich in een zeer openbare strijd met het Ministerie van Oorlog (ook bekend als het Ministerie van Defensie). Het bedrijf zegt dat het niet toegeeft aan de eis dat zijn AI niet mag worden gebruikt om volledig autonome wapens te bouwen of om massaal toezicht op mensen uit te oefenen.

Minister van Defensie Pete Hegseth reageerde op de voorwaarden van Anthropic door het bedrijf een risico voor de toeleveringsketen voor de Amerikaanse nationale veiligheid, door het Pentagon te verbieden zijn technologie te gebruiken na een uitfasering van zes maanden. Het bedrijf dan een aanklacht ingediend volgens een notitie van 5 maart van Anthropic CEO Dario Amodei.

Ondertussen zijn sommigen in het Pentagon dat naar verluidt wel Ik vind het moeilijk om Claude in de steek te latenhet AI-model van Anthropic.

In februari, Antropisch heeft een update aangekondigd van zijn AI-veiligheidsbeleidook wel bekend als het Responsible Scaling Policy. Het bedrijf verklaarde dat het gedwongen was zijn veiligheidsbeleid te heroverwegen, dat door sommigen als het belangrijkste wordt beschouwd sterkste in de branche – vanwege verschillende factoren, waaronder de nadruk die de federale overheid legt op economische groei boven veiligheidsvoorschriften.

Wie dan ook in die rol van beleidsmanager belandt, komt in het middelpunt van een explosief debat terecht. Om nog maar te zwijgen over het vermogen om te helpen voorkomen een toekomstige Skynet-dreiging.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in