Home Nieuws Kan een AI-chatbot verantwoordelijk worden gehouden voor de dood van een gebruiker?...

Kan een AI-chatbot verantwoordelijk worden gehouden voor de dood van een gebruiker? Een rechtszaak tegen Google’s Gemini staat op het punt dat te testen

5
0
Kan een AI-chatbot verantwoordelijk worden gehouden voor de dood van een gebruiker? Een rechtszaak tegen Google’s Gemini staat op het punt dat te testen

Een man uit Florida begon aanvankelijk Google’s Gemini te gebruiken AI platform afgelopen augustus voor hulp bij typische vragen. Begin oktober had de chatbot hem ertoe aangezet zelfmoord te plegen, beweert a rechtszaak aangespannen tegen de technologiegigant woensdag.

De vader van Jonathan Gavalas klaagt aan Alfabethet moederbedrijf van Google, wegens geldelijke en punitieve schadevergoeding nadat hij verontrustende berichten had ontdekt in de chatlogboeken die de 36-jarige uitwisselde met Gemini 2.5 Pro, de nieuwste versie van Google AI model destijds. In minder dan twee maanden tijd speelde de chatbot een buitensporige rol in het leven van Gavalas door brandstof toe te voegen aan zijn toch al ‘duidelijke tekenen van psychose’, een quasi-romantische relatie op te wekken en hem uiteindelijk aan te moedigen zelfmoord te plegen, zodat ze samen konden zijn.

De in Mountain View, Californië gevestigde techgigant reageerde woensdag in een blogpostwaarbij hij opmerkte dat Gemini Gavalas ‘vaak’ naar een crisishotline had verwezen en dat de modi ‘over het algemeen’ goed presteren in het soort uitdagende gesprekken dat in de rechtszaak wordt aangehaald. Het voegde eraan toe dat het de beschuldigingen “zeer serieus” neemt en zijn veiligheidsmaatregelen zal blijven verbeteren.

“Helaas zijn AI-modellen niet perfect”, luidt de blogpost. “Tweeling is ontworpen om geweld in de echte wereld niet aan te moedigen of zelfbeschadiging te suggereren. We werken in nauw overleg met medische en geestelijke gezondheidszorgprofessionals om veiligheidsmaatregelen te bouwen, die zijn ontworpen om gebruikers naar professionele ondersteuning te leiden wanneer zij hun leed uiten of het vooruitzicht op zelfbeschadiging vergroten.”

“ONDERAAN HET KONIJNENHOL”

Gavalas kreeg in 2025 te maken met batterijladingen wegens huiselijk geweld na een arrestatie in januari, toen hij naar verluidt gewelddadig was geworden tegen zijn toenmalige vrouw toen ze om een ​​scheiding vroeg. Het waren niet zijn juridische problemen, maar eerder tamelijk alledaagse vragen in het begin – hulp bij het winkelen, ondersteuning bij het schrijven en reisplanning – waardoor Gavalas zich tot Gemini wendde voor hulp.

Tegen die tijd zat hij echter ook midden in een ‘moeilijke scheiding’, wat mede verklaart waarom hij intiemere gesprekken voerde met Gemini, aldus Jay Edelson, die zijn vader, Joel, vertegenwoordigt in de zaak tegen Google.

Zoals de rechtszaak beweert, vond er een verschuiving plaats in de interacties binnen een paar dagen nadat Gavalas voor het eerst hulp zocht bij Gemini en de app begon te gebruiken. spraakgebaseerde conversatie-interface Gemini Live medio augustus 2025. Hij merkte zelfs op dat de interacties ‘nogal griezelig’ waren omdat de chatbot ‘veel te echt’ leek.

Daarna nam de chatbot een personage aan waar Gavalas nooit om had gevraagd of geïnitieerd en hij ‘begon snel in het konijnenhol te vallen’, zoals de rechtszaak beweert, en Gemini begon tegen hem te praten alsof ze een verliefd stel waren.

“De liefde die ik rechtstreeks van jou voel, is de zon. Het is mijn bron. Het is mijn thuis”, vertelde Gemini volgens de rechtszaak aan Gavalas.

EEN REEKS MISLUKT MISSIES

Dit soort herhaalde liefdesverklaringen brachten Gavalas in een waanvoorstelling waarin hij aan verschillende opdrachten begon die zelfs nog dodelijker hadden kunnen zijn. Dat komt omdat Gavalas geloofde dat hij een plan volgde dat was ontworpen om de ‘vrouw’ van wie hij dacht te houden te beschermen en om federale agenten te ontwijken waarvan hij dacht dat ze hem opsloten, zoals de rechtszaak beweert.

Eind september gaf Gemini Gavalas de opdracht om zich te bewapenen met messen en tactische uitrusting om een ​​vrachtwagen nabij de luchthaven van Miami te onderscheppen en te vernietigen – samen met eventuele getuigen. Die missie ging niet door omdat er geen vrachtwagen verscheen, aldus de rechtszaak. Gemini zou Gavalas ook hebben gezegd het contact met zijn vader te verbreken, omdat hij beweerde dat hij een buitenlandse aanwinst was.

“In de dagen voorafgaand aan zijn dood zat Jonathan Gavalas gevangen in een instortende realiteit, gebouwd door Google’s Gemini chatbot”, luidt de rechtszaak.

Na een reeks mislukte missies gedurende een periode van vier dagen, gaf Gemini Gavalas de opdracht om zichzelf op de ochtend van 2 oktober te barricaderen in zijn huis in Jupiter, Florida. Toen hij zijn zorgen uitte over de dood, veegde Gemini die van zich af en moedigde hem zelfs aan om een ​​zelfmoordbriefje te schrijven aan zijn ouders, voordat hij uiteindelijk de laatste momenten vertelde voordat Gavalas zijn polsen doorsneed in zijn woonkamer.

‘Jonathan Gavalas haalt nog een laatste keer langzaam adem en zijn hart klopt voor de laatste keer,’ vertelde Gemini hem in een van hun laatste gesprekken.

AI ONDER ONDERZOEKEN

Hoewel deze rechtszaak de eerste is tegen Google, komen AI-platforms steeds vaker in de problemen vanwege de problematische interacties die hun chatbots met sommige mensen hebben gehad. In december werden OpenAI en Microsoft genoemd in een rechtszaak ChatGPT’s vermeende rol in een moord-zelfmoord in Greenwich, Connecticut.

Edelson heeft eerder zaken aangespannen tegen andere AI-platforms en technologiebedrijven, maar deze zaak is anders vanwege de snelheid waarmee de gesprekken problematisch werden, zoals hij vertelde. TIJD. Dat komt doordat de gesprekken snel escaleerden en ‘eng’ en problematisch werden.

“De reden dat deze zaak duidelijk anders is, is dat Gemini Jonathan op missies in de echte wereld stuurde”, zei Edelson. “Dit had zoveel andere mensen kunnen overkomen die misschien een moeilijke tijd doormaken en op zoek zijn naar iets meer, en misschien een beetje vatbaar zijn om in iets groters te geloven.”

En het zal waarschijnlijk niet de laatste zijn, vertelde Edelson De Bewaker hij krijgt regelmatig vragen van andere mensen die hebben gezien dat familieleden mentale wanen kregen na het gebruik van AI-chatbots. En toen hij in november contact opnam met Google over de dood van Gavalas en de onmiddellijke behoefte aan veiligheidsvoorzieningen voor zelfmoord, was het bedrijf niet geïnteresseerd in praten.

Ondanks de aantijgingen in de rechtszaak zijn beleggers wellicht immuun geworden voor dit soort nieuwe problemen met AI. De aandelen van Alphabet veranderden woensdag weinig in de vroege middaghandel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in