Anthropic durft niet meer zo anders te zijn.
De AI-startup opgericht door voormalig OpenAI werknemers, die zeer gefocust zijn op de juiste ontwikkeling van de technologie, verzwakken het fundamentele veiligheidsprincipe ervan.
In een verklaring op dinsdag zei Anthropic dat het, te midden van de toegenomen concurrentie en een gebrek aan overheidsregulering, niet langer zal voldoen aan zijn belofte ‘om de schaalvergroting te pauzeren en/of de inzet van nieuwe modellen uit te stellen’, terwijl dergelijke ontwikkelingen de eigen veiligheidsmaatregelen zouden hebben overtroffen.
Het nieuwe beleid betekent dat Anthropic veel minder wordt beperkt door veiligheidsproblemen op een moment dat zijn vlaggenschip chatbot, Claudezet de financiële markten op zijn kop en leidt tot zorgen over de teloorgang van software.
Als onderdeel van de veranderingen heeft Anthropic nu afzonderlijke veiligheidsaanbevelingen, het Responsible Scaling Policy genoemd, voor zichzelf en de AI-industrie als geheel. Het beleid was losjes gemodelleerd naar de normen voor bioveiligheidsniveau (BSL) van de Amerikaanse overheid
Anthropic’s hoofd wetenschap, Jared Kaplan, vertelde Time Magazine dat het verantwoorde schaalbeleid niet in overeenstemming was met de huidige stand van zaken in de AI-race.
“We hadden het gevoel dat het niemand zou helpen als we zouden stoppen met het trainen van AI-modellen”, zegt Kaplan verteld Tijd. “Met de snelle opmars van AI hadden we niet echt het gevoel dat het zinvol was om eenzijdige toezeggingen te doen… als de concurrentie voorop loopt.”
Het nieuwe beleid omvat nog steeds een toezegging om de ontwikkeling of introductie van een ‘zeer capabel’ AI-model uit te stellen, maar alleen in beperktere omstandigheden.
In een lange blogpost noemde Anthropic “een anti-regulerend politiek klimaat” als onderdeel van de reden voor zijn besluit. Het bedrijf en zijn CEO, Dario Amodeihebben met enig succes op staatsniveau aangedrongen op AI-regelgeving, maar zonder grote stappen op federaal niveau.
“We blijven ervan overtuigd dat effectieve overheidsbetrokkenheid op het gebied van AI-veiligheid zowel noodzakelijk als haalbaar is, en we streven ernaar een gesprek te blijven bevorderen dat gebaseerd is op bewijsmateriaal, nationale veiligheidsbelangen, economisch concurrentievermogen en vertrouwen van het publiek”, aldus het bedrijf. schreef. “Maar dit blijkt een langetermijnproject te zijn – niet iets dat organisch gebeurt naarmate AI capabeler wordt of bepaalde drempels overschrijdt.”
Het bedrijf zei dat het schaalbeleid altijd bedoeld was als ‘een levend document’, zoals uiteengezet in de eerste versie uit 2023. Dat gezegd hebbende, heeft Amodei eerder gezegd dat het veiligheidsbeleid bedoeld was om de risico’s te beperken die AI zou kunnen veroorzaken – waarbij hij zelfs de beroemde waarschuwing van oom Ben aan Peter Parker, ook bekend als Spider-Man, citeerde.
“De kracht van de modellen en hun vermogen om al deze problemen op het gebied van de biologie, de neurowetenschappen, de economische ontwikkeling, het bestuur en de vrede op te lossen, grote delen van de economie, brengen ook risico’s met zich mee, toch?” Amodei vertelde in november 2024 aan podcaster Lex Fridman. “Met grote macht komt een grote verantwoordelijkheid.”
Anthropic zei dat een andere reden voor het wijzigen van de normen is dat hogere theoretische risiconiveaus, ASL-4 en hoger, in hun raamwerk niet door één bedrijf alleen kunnen worden beperkt. (In de bioveiligheidswereld verwijst BSL-4 naar het hoogste beschermingsniveau dat een extreem klein aantal laboratoria implementeert om ziekteverwekkers zoals het Ebola-virus te bestrijden.)
Veiligheid is de kern van de ziel van Anthropic
Amodei heeft herhaaldelijk gezegd dat de toewijding van zijn bedrijf aan veiligheid duidelijk blijkt uit een van de eerste grote beslissingen: het uitstellen van de vrijlating van Claude in de zomer van 2022.
Terugkijkend op deze stap zei Amodei dat Anthropic zich zorgen maakte dat het niet snel genoeg veiligheidsmaatregelen kon ontwikkelen voor de publieke vrijgave van een baanbrekende technologie. OpenAI vrijgegeven ChatGPT in november 2022, waarmee de AI-race op gang kwam. Maanden later liet Anthropic Claude eindelijk vrij.
“Dat was commercieel gezien erg duur”, zei Amodei tijdens een recent interview met miljardair en investeerder Nikhil Kamath. “Daardoor hebben we waarschijnlijk de leiding genomen op het gebied van consumenten-AI.”
Een van Claude’s eerdere trainingsdocumenten wordt intern de “Ziel dokter”, een voorbeeld van retoriek die bij de meeste andere AI-bedrijven niet op zijn plaats zou zijn.
Kamath drong er bij Amodei op aan hoe hij reageert op critici die zeggen dat Anthropic alleen maar regelgeving stimuleert om de groei van toekomstige concurrenten te stoppen. Amodei zei dat het besluit uit 2022 een voorbeeld was van hoe het bedrijf zijn toespraak over veiligheid ondersteunt. Hij wees ook op het pleiten voor Amerikaanse exportcontroles op geavanceerde chips naar China, een standpunt van Nvidia CEO Jensen Huang heeft bekritiseerd.
“Iedereen die denkt dat wij er baat bij hebben dat we de enigen zijn die dat doen, is heel moeilijk om een beeld te schetsen waarin dat het geval is,” zei Amodei. “Je kijkt naar een van deze en: ‘Oké, prima’, maar je hebt er genoeg bij elkaar gezet, en ik weet het niet, ik vraag je om ons te beoordelen op basis van onze daden.”
