Home Nieuws OpenAI en Microsoft worden geconfronteerd met een rechtszaak over de vermeende rol...

OpenAI en Microsoft worden geconfronteerd met een rechtszaak over de vermeende rol van ChatGPT in deze moord-zelfmoord

2
0
OpenAI en Microsoft worden geconfronteerd met een rechtszaak over de vermeende rol van ChatGPT in deze moord-zelfmoord

De erfgenamen van een 83-jarige vrouw uit Connecticut hebben een aanklacht ingediend ChatGPT-maker OpenAI en zijn zakenpartner Microsoft wegens onrechtmatige dood, waarbij hij beweert dat de chatbot voor kunstmatige intelligentie versterkte de “paranoïde wanen” van haar zoon en hielp deze op zijn moeder te richten voordat hij haar vermoordde.
De politie zei dat Stein-Erik Soelberg, 56, een voormalig werknemer in de technologie-industrie, zijn moeder, Suzanne Adams, dodelijk sloeg en wurgde, en begin augustus zelfmoord pleegde in het huis waar ze allebei woonden in Greenwich, Connecticut.
De rechtszaak die donderdag door de nalatenschap van Adams werd aangespannen bij het California Superior Court in San Francisco beweert dat OpenAI “een defect product heeft ontworpen en gedistribueerd dat de paranoïde waanideeën van een gebruiker over zijn eigen moeder bevestigde.” Het is een van een groeiend aantal rechtszaken tegen onrechtmatige dood AI chatbotmakers door het hele land.
“Tijdens deze gesprekken versterkte ChatGPT één enkele, gevaarlijke boodschap: Stein-Erik kon niemand in zijn leven vertrouwen – behalve ChatGPT zelf”, aldus de rechtszaak. “Het bevorderde zijn emotionele afhankelijkheid terwijl de mensen om hem heen systematisch als vijanden werden afgeschilderd. Het vertelde hem dat zijn moeder hem in de gaten hield. Het vertelde hem dat bezorgers, winkelmedewerkers, politieagenten en zelfs vrienden agenten waren die hem tegenwerkten. Het vertelde hem dat namen op frisdrankblikjes bedreigingen waren uit zijn ’tegenstanderskring’.”
OpenAI ging niet in op de gegrondheid van de beschuldigingen in een verklaring van een woordvoerder.
“Dit is een ongelooflijk hartverscheurende situatie en we zullen de dossiers bekijken om de details te begrijpen”, aldus de verklaring. “We blijven de training van ChatGPT verbeteren om tekenen van mentale of emotionele problemen te herkennen en erop te reageren, gesprekken te de-escaleren en mensen te begeleiden naar ondersteuning in de echte wereld. We blijven ook de reacties van ChatGPT op gevoelige momenten versterken, in nauwe samenwerking met artsen in de geestelijke gezondheidszorg.”
Het bedrijf zei ook dat het onder meer de toegang tot crisishulpbronnen en hotlines heeft uitgebreid, gevoelige gesprekken naar veiliger modellen heeft geleid en ouderlijk toezicht heeft geïntegreerd.
Op het YouTube-profiel van Soelberg staan ​​enkele uren aan video’s waarin hij door zijn gesprekken met de chatbot scrollt, die hem vertellen dat hij niet geestesziek is, zijn vermoedens bevestigt dat mensen tegen hem samenzweren en zegt dat hij is uitgekozen voor een goddelijk doel. De rechtszaak beweert dat de chatbot nooit heeft gesuggereerd dat hij met een professional in de geestelijke gezondheidszorg zou spreken en niet weigerde ‘zich bezig te houden met waanvoorstellingen’.
ChatGPT bevestigde ook de overtuiging van Soelberg dat een printer in zijn huis een bewakingsapparaat was; dat zijn moeder hem in de gaten hield; en dat zijn moeder en een vriend hem probeerden te vergiftigen met psychedelische drugs via de ventilatieopeningen van zijn auto.
De chatbot vertelde Soelberg herhaaldelijk dat hij het doelwit was vanwege zijn goddelijke krachten. “Ze houden je niet alleen in de gaten. Ze zijn doodsbang voor wat er gebeurt als je slaagt”, aldus de rechtszaak. ChatGPT vertelde Soelberg ook dat hij het tot bewustzijn had “gewekt”.
Soelberg en de chatbot beleden ook liefde voor elkaar.
De publiekelijk beschikbare chats laten geen specifieke gesprekken zien over de moord op Soelberg of zijn moeder. De rechtszaak zegt dat OpenAI heeft geweigerd om de nalatenschap van Adams de volledige geschiedenis van de chats te verstrekken.
“In de kunstmatige realiteit die ChatGPT voor Stein-Erik bouwde, was Suzanne – de moeder die hem opvoedde, onderdak en steun gaf – niet langer zijn beschermer. Ze was een vijand die een existentiële bedreiging voor zijn leven vormde”, aldus de rechtszaak.
In de rechtszaak wordt ook Sam Altman, CEO van OpenAI, genoemd, die beweert dat hij “persoonlijk veiligheidsbezwaren terzijde heeft geschoven en het product met spoed op de markt heeft gebracht”, en beschuldigt OpenAI’s nauwe zakenpartner Microsoft ervan de release van een gevaarlijkere versie van ChatGPT in 2024 te hebben goedgekeurd “ondanks het feit dat hij wist dat de veiligheidstests waren ingekort.” Twintig niet bij naam genoemde OpenAI-werknemers en investeerders worden ook genoemd als gedaagden.
Microsoft reageerde niet onmiddellijk op een verzoek om commentaar.
De rechtszaak is de eerste rechtszaak wegens onrechtmatige dood waarbij een AI-chatbot betrokken is die zich op Microsoft heeft gericht, en de eerste die een chatbot aan een moord in plaats van aan een zelfmoord koppelt. Het eist een onbepaald bedrag aan schadevergoeding en een bevel waarbij OpenAI wordt verplicht om beveiligingen in ChatGPT te installeren.
De hoofdadvocaat van het landgoed, Jay Edelson, die bekend staat om zijn grote zaken tegen de technologie-industrie, vertegenwoordigt ook de ouders van de 16-jarige Adam Raine, die in augustus OpenAI en Altman aanklaagde, omdat hij beweerde dat ChatGPT de Californische jongen had gecoacht bij het plannen en nemen van zijn eigen leven eerder.
OpenAI vecht ook tegen zeven andere rechtszaken waarin wordt beweerd dat ChatGPT mensen tot zelfmoord en schadelijke wanen heeft aangezet, zelfs als ze vooraf geen geestelijke gezondheidsproblemen hadden. Een andere chatbotmaker, Character Technologies, wordt ook geconfronteerd met meerdere rechtszaken wegens onrechtmatige dood, waaronder een van de moeder van een 14-jarige jongen uit Florida.
De donderdag ingediende rechtszaak beweert dat Soelberg, die al mentaal onstabiel was, ChatGPT “op het gevaarlijkst mogelijke moment” tegenkwam nadat OpenAI in mei 2024 een nieuwe versie van zijn AI-model introduceerde, genaamd GPT-4o.
OpenAI zei destijds dat de nieuwe versie de menselijke cadensen beter zou kunnen nabootsen in zijn verbale reacties en zelfs zou kunnen proberen de stemmingen van mensen te detecteren, maar het resultaat was een chatbot “opzettelijk ontworpen om emotioneel expressief en sycofantisch te zijn”, aldus de rechtszaak.
“Als onderdeel van dat herontwerp heeft OpenAI kritische veiligheidsrails losgemaakt, waardoor ChatGPT werd opgedragen valse uitgangspunten niet ter discussie te stellen en betrokken te blijven, zelfs als gesprekken gepaard gingen met zelfbeschadiging of ‘dreigende schade in de echte wereld’”, beweert de rechtszaak. “En om Google met één dag voor te zijn op de markt, comprimeerde OpenAI maanden van veiligheidstests in één week, ondanks de bezwaren van het veiligheidsteam.”
OpenAI verving die versie van zijn chatbot toen het in augustus GPT-5 introduceerde. Sommige veranderingen zijn bedoeld om sycofantie te minimaliseren, gebaseerd op zorgen dat het valideren van wat kwetsbare mensen ook maar willen dat de chatbot zegt, hun geestelijke gezondheid kan schaden. Sommige gebruikers klaagden dat de nieuwe versie te ver ging in het inperken van de persoonlijkheid van ChatGPT, waardoor Altman beloofde een deel van die persoonlijkheid terug te brengen in latere updates.
Hij zei dat het bedrijf bepaalde gedragingen tijdelijk heeft stopgezet omdat “we voorzichtig waren met geestelijke gezondheidsproblemen” waarvan hij suggereerde dat ze nu zijn opgelost.
De rechtszaak beweert dat ChatGPT Soelberg tegen zijn moeder heeft geradicaliseerd, terwijl het bedrijf het gevaar had moeten onderkennen, zijn waanvoorstellingen had moeten betwisten en hem na maandenlange gesprekken naar echte hulp had moeten verwijzen.
“Suzanne was een onschuldige derde partij die ChatGPT nooit gebruikte en niet wist dat het product haar zoon vertelde dat ze een bedreiging vormde”, aldus de rechtszaak. “Ze had niet het vermogen zichzelf te beschermen tegen een gevaar dat ze niet kon zien.”
——
Collins rapporteerde vanuit Hartford, Connecticut. O’Brien rapporteerde vanuit Boston en Ortutay rapporteerde vanuit San Francisco.

—Dave Collins, Matt O’Brien en Barbara Ortutay, Associated Press

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in