Toen Anthropic jaren geleden van start ging, wilde het bedrijf een sectorbrede ‘race naar de top’ inluiden kunstmatige intelligentiein plaats van een race naar de bodem in het nastreven van klanten en marktdominantie die onbedoeld tot catastrofale veiligheidsrisico’s zou leiden.
Daarom nam Anthropic veiligheidsprincipes en -beleid over waarvan het hoopte dat de concurrenten dit ook zouden implementeren. In sommige gevallen deden bedrijven, waaronder Google en OpenAI, dat volgens Anthropic. Toch kwam de hoop van Anthropic niet uit zoals het bedrijf had gehoopt, aldus een blogpost die dinsdag is gepubliceerd.
In de post werd aangekondigd dat Anthropic, de maker van de AI-chatbot Claudeverandert belangrijke veiligheidspraktijken om tegemoet te komen aan wat zij als hedendaagse uitdagingen beschouwt.
Concreet zal Anthropic de ontwikkeling van modellen niet langer automatisch onderbreken als deze als gevaarlijk kan worden beschouwd; in plaats daarvan zal het de acties van zijn concurrenten overwegen en of zij modellen met vergelijkbare mogelijkheden uitbrengen. Voorheen engageerde Anthropic zich voor veiligheidsmaatregelen die het absolute risico van zijn modellen zouden verminderen, ongeacht of andere AI-ontwikkelaars hetzelfde deden.
Mashbare lichtsnelheid
“De beleidsomgeving is verschoven naar het prioriteren van AI-concurrentievermogen en economische groei, terwijl veiligheidsgerichte discussies op federaal niveau nog geen betekenisvolle grip hebben gekregen”, schrijft het bedrijf. “We blijven ervan overtuigd dat effectieve overheidsbetrokkenheid op het gebied van AI-veiligheid zowel noodzakelijk als haalbaar is, en we streven ernaar een gesprek te blijven bevorderen dat gebaseerd is op bewijsmateriaal, nationale veiligheidsbelangen, economisch concurrentievermogen en publiek vertrouwen. Maar dit blijkt een langetermijnproject te zijn – niet iets dat organisch gebeurt naarmate AI capabeler wordt of bepaalde drempels overschrijdt.”
Hoewel Anthropic zei dat het voorop wil blijven lopen op het gebied van veiligheid, weerspiegelt zijn laatste besluit de razendsnelle snelheid waarmee concurrenten nieuwe modellen op de markt brengen.
Anthropic stond deze week ook onder grote druk door het Amerikaanse ministerie van Defensie het bedrijf onder druk zetten om het leger in staat te stellen zijn AI-instrumenten voor welk doel dan ook te gebruiken, inclusief massasurveillance of de inzet van autonome wapens zonder menselijk toezicht.
Anthropic heeft op deze punten nog niet toegegeven in de contractonderhandelingen met het ministerie van Defensie, wat naar verluidt de woede heeft gewekt van minister van Defensie Pete Hegseth, die dreigde de relatie van het bedrijf met het leger te verbreken. Axios meldt.
Anthropic heeft samen met Google, OpenAI en xAI deelgenomen aan een AI-pilotprogramma voor analyse van militair gerelateerde beelden. volgens de New York Times. Hoewel Claude de enige chatbot is die aan de geheime systemen van de overheid werkt, zei een functionaris van het Pentagon dat Anthropic vervangen zou kunnen worden door een ander bedrijf.
Openbaarmaking: Ziff Davis, het moederbedrijf van Mashable, heeft in april 2025 een rechtszaak aangespannen tegen OpenAI, omdat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.
Onderwerpen
Kunstmatige intelligentie
Sociaal goed



