Home Nieuws OpenAI steunt wetsvoorstel dat de aansprakelijkheid voor door AI mogelijk gemaakte massale...

OpenAI steunt wetsvoorstel dat de aansprakelijkheid voor door AI mogelijk gemaakte massale sterfgevallen of financiële rampen zou beperken

6
0
OpenAI steunt wetsvoorstel dat de aansprakelijkheid voor door AI mogelijk gemaakte massale sterfgevallen of financiële rampen zou beperken

OpenAI gooit zijn steun achter een staatswet uit Illinois die AI-laboratoria zou beschermen tegen aansprakelijkheid in gevallen waarin AI-modellen worden gebruikt om ernstige maatschappelijke schade te veroorzaken, zoals de dood of ernstig letsel van 100 of meer mensen of minstens $1 miljard aan materiële schade.

De inspanning lijkt een verschuiving te markeren OpenAI’s wetgevend strategie. Tot nu toe heeft OpenAI zich vooral verdedigd en zich verzet tegen wetsvoorstellen die hadden kunnen worden gemaakt AI-labs koppelbaar voor de schade van hun technologie. Verschillende AI-beleidsexperts vertellen WIRED dat SB 3444 – die een nieuwe standaard voor de industrie zou kunnen zetten – een extremere maatregel is dan de wetsvoorstellen die OpenAI in het verleden heeft gesteund.

Het wetsvoorstel zou frontier AI-ontwikkelaars beschermen tegen aansprakelijkheid voor ‘kritieke schade’ veroorzaakt door hun frontier-modellen, zolang ze niet opzettelijk of roekeloos een dergelijk incident hebben veroorzaakt en veiligheids-, beveiligings- en transparantierapporten op hun website hebben gepubliceerd. Het definieert een grensmodel als elk AI-model dat is getraind met behulp van meer dan $100 miljoen aan rekenkosten, wat waarschijnlijk van toepassing zou kunnen zijn op de grootste AI-laboratoria van Amerika, zoals OpenAI, Google, xAI, Anthropic en Meta.

“Wij ondersteunen dit soort benaderingen omdat ze zich richten op wat het belangrijkst is: het verminderen van het risico op ernstige schade als gevolg van de meest geavanceerde AI-systemen, terwijl we toch toestaan ​​dat deze technologie in handen komt van de mensen en bedrijven – klein en groot – van Illinois”, aldus OpenAI-woordvoerder Jamie Radice in een per e-mail verzonden verklaring. “Ze helpen ook een lappendeken van regels per staat te voorkomen en evolueren naar duidelijkere, consistentere nationale normen.”

Onder de definitie van kritieke schade noemt het wetsvoorstel een aantal gemeenschappelijke punten van zorg voor de AI-industrie, zoals een slechte actor die AI gebruikt om een chemische stof creërenbiologisch, radiologisch of kernwapen. Als een AI-model op zichzelf gedrag vertoont dat, als het door een mens wordt gepleegd, een strafbaar feit zou vormen en tot deze extreme uitkomsten zou leiden, zou dat ook ernstige schade toebrengen. Als een AI-model een van deze acties zou ondernemen onder SB 3444, kan het AI-lab achter het model niet aansprakelijk worden gesteld, zolang het niet opzettelijk was en zij hun rapporten hebben gepubliceerd.

De federale en staatswetgevers in de VS moeten nog wetten aannemen die specifiek bepalen of ontwikkelaars van AI-modellen, zoals OpenAI, aansprakelijk kunnen zijn voor dit soort schade veroorzaakt door hun technologie. Maar naarmate AI-laboratoria krachtigere AI-modellen blijven uitbrengen die nieuwe uitdagingen op het gebied van veiligheid en cyberbeveiliging met zich meebrengen, zoals Claude Mythos van Anthropicdeze vragen voelen steeds vooruitziender aan.

In haar getuigenis ter ondersteuning van SB 3444 pleitte Caitlin Niedermeyer, lid van OpenAI’s Global Affairs-team, ook voor een federaal raamwerk voor AI-regulering. Niedermeyer bracht een boodschap over die consistent is met die van de regering-Trump hardhandig optreden tegen de AI-veiligheidswetten van de staatwaarin hij beweert dat het belangrijk is om “een lappendeken van inconsistente staatsvereisten te vermijden die voor wrijving zouden kunnen zorgen zonder de veiligheid op betekenisvolle wijze te verbeteren.” Dit komt ook overeen met de bredere visie van Silicon Valley van de afgelopen jaren, die algemeen heeft betoogd dat dit van het grootste belang is AI-wetgeving om de positie van Amerika in de mondiale AI-race niet te belemmeren. Hoewel SB 3444 zelf een veiligheidswet op staatsniveau is, betoogde Niedermeyer dat deze effectief kunnen zijn als ze ‘een pad naar harmonisatie met federale systemen versterken’.

“Bij OpenAI zijn we van mening dat de Noordster voor grensregulering de veilige inzet van de meest geavanceerde modellen moet zijn, op een manier die ook het Amerikaanse leiderschap op het gebied van innovatie behoudt”, aldus Niedermeyer.

Scott Wisor, beleidsdirecteur van het Secure AI-project, vertelt WIRED dat hij gelooft dat dit wetsvoorstel een kleine kans heeft om aangenomen te worden, gezien de reputatie van Illinois voor het agressief reguleren van technologie. “We hebben mensen in Illinois ondervraagd met de vraag of zij vinden dat AI-bedrijven moeten worden vrijgesteld van aansprakelijkheid, en 90 procent van de mensen is daar tegen. Er is geen reden waarom bestaande AI-bedrijven met verminderde aansprakelijkheid te maken zouden moeten krijgen”, zegt Wisor.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in