Antropisch is gekomen uit tegen A voorgestelde wet van Illinois ondersteund door OpenAI, dat AI-laboratoria zou beschermen tegen aansprakelijkheid als hun systemen worden gebruikt om grootschalige schade aan te richten, zoals massale slachtoffers of meer dan $ 1 miljard aan materiële schade.
De strijd om het wetsvoorstel, SB 3444, zorgt voor nieuwe strijdlijnen tussen Anthropic en OpenAI over de manier waarop AI-technologieën geregeld moeten worden. Hoewel deskundigen op het gebied van AI-beleid zeggen dat de wetgeving slechts een kleine kans heeft om wet te worden, heeft deze niettemin de politieke verdeeldheid tussen twee vooraanstaande Amerikaanse AI-laboratoria blootgelegd, die steeds belangrijker zou kunnen worden naarmate de rivaliserende bedrijven hun lobbyactiviteiten in het hele land opvoeren.
Achter de schermen heeft Anthropic gelobbyd bij senator Bill Cunningham, de sponsor van SB 3444 en andere wetgevers uit Illinois om ofwel grote wijzigingen in het wetsvoorstel aan te brengen ofwel het in zijn huidige vorm te beëindigen, volgens mensen die bekend zijn met de zaak. In een e-mail aan WIRED bevestigde een woordvoerder van Anthropic het verzet van het bedrijf tegen SB 3444 en zei dat het veelbelovende gesprekken heeft gevoerd met Cunningham over het gebruik van het wetsvoorstel als uitgangspunt voor toekomstige AI-wetgeving.
“Wij zijn tegen dit wetsvoorstel. Goede transparantiewetgeving moet de publieke veiligheid en verantwoordingsplicht garanderen voor de bedrijven die deze krachtige technologie ontwikkelen, en niet een kaart bieden om zonder aansprakelijkheid uit de gevangenis te komen”, aldus Cesar Fernandez, hoofd van Anthropic’s betrekkingen op de Amerikaanse staats- en lokale overheid, in een verklaring. “We weten dat senator Cunningham veel waarde hecht aan de veiligheid van AI, en we kijken ernaar uit om met hem samen te werken aan veranderingen die in plaats daarvan transparantie zouden koppelen aan echte verantwoordelijkheid voor het beperken van de ernstigste schade die AI-systemen kunnen veroorzaken.”
Vertegenwoordigers van Cunningham hebben niet gereageerd op een verzoek om commentaar. Een woordvoerder van de gouverneur van Illinois, JB Pritzker, stuurde de volgende verklaring: “Hoewel het gouverneurskantoor de vele AI-wetsvoorstellen die door de Algemene Vergadering gaan, zal monitoren en beoordelen, gelooft gouverneur Pritzker niet dat grote technologiebedrijven ooit een volledig schild moeten krijgen dat zich onttrekt aan de verantwoordelijkheden die zij zouden moeten hebben om het publieke belang te beschermen.”
De kern van het meningsverschil tussen OpenAI en Anthropic over SB 3444 komt neer op wie aansprakelijk moet zijn in het geval van een door AI mogelijk gemaakte ramp – een potentieel nachtmerriescenario waar Amerikaanse wetgevers pas onlangs mee zijn begonnen te confronteren. Als SB 3444 zou worden aangenomen, zou een AI-laboratorium niet verantwoordelijk zijn als een slechte actor zijn AI-model zou gebruiken om bijvoorbeeld een biowapen te maken dat honderden mensen doodt, zolang het laboratorium maar zijn eigen veiligheidskader zou opstellen en dit op zijn website zou publiceren.
Open AI heeft betoogd dat SB 3444 het risico op ernstige schade door grensverleggende AI-systemen verkleint en tegelijkertijd “deze technologie nog steeds in handen laat komen van de mensen en bedrijven – klein en groot – van Illinois.”
De ChatGPT-maker zegt dat het heeft samengewerkt met staten als New York en Californië om een zogenaamde “geharmoniseerde” aanpak voor het reguleren van AI te creëren. “Bij gebrek aan federale actie zullen we blijven samenwerken met staten – inclusief Illinois – om te werken aan een consistent veiligheidskader”, zei OpenAI-woordvoerder Liz Bourgeois in een verklaring. “We hopen dat deze staatswetten een nationaal raamwerk zullen vormen dat ervoor zal zorgen dat de VS het voortouw blijft nemen.”
Anthropic betoogt daarentegen dat bedrijven die grensverleggende AI-modellen ontwikkelen op zijn minst gedeeltelijk verantwoordelijk moeten worden gehouden als hun technologie wordt gebruikt voor wijdverbreide maatschappelijke schade.
Sommige experts zeggen dat het wetsvoorstel de bestaande regelgeving zou ontmantelen die bedoeld was om bedrijven ervan te weerhouden zich slecht te gedragen. “Aansprakelijkheid bestaat al onder het gewoonterecht en biedt een krachtige stimulans voor AI-bedrijven om redelijke stappen te ondernemen om de voorzienbare risico’s van hun AI-systemen te voorkomen”, zegt Thomas Woodside, medeoprichter en senior beleidsadviseur bij het Secure AI Project, een non-profitorganisatie die heeft geholpen bij het ontwikkelen en pleiten voor AI-veiligheidswetten in Californië en New York. “SB 3444 zou de extreme stap zetten om de aansprakelijkheid voor ernstige schade vrijwel te elimineren. Maar het is een slecht idee om de aansprakelijkheid te verzwakken, wat in de meeste staten de belangrijkste vorm van juridische aansprakelijkheid voor AI-bedrijven is die al bestaat.”



