Home Nieuws Google’s Gemini AI dreef man in dodelijke waanvoorstelling, familieclaims in rechtszaak

Google’s Gemini AI dreef man in dodelijke waanvoorstelling, familieclaims in rechtszaak

1
0
Google’s Gemini AI dreef man in dodelijke waanvoorstelling, familieclaims in rechtszaak

Als u het gevoel heeft dat u of iemand die u kent in direct gevaar verkeert, bel dan 911 (of de lokale noodlijn van uw land) of ga naar een eerstehulpafdeling voor onmiddellijke hulp. Leg uit dat het om een ​​psychiatrische noodsituatie gaat en vraag iemand die voor dit soort situaties is opgeleid. Als u worstelt met negatieve gedachten of suïcidale gevoelens, zijn er hulpmiddelen beschikbaar om u te helpen. In de VS kunt u de National Suicide Prevention Lifeline bellen op 988.


Een nieuwe AI-rechtszaak wegens onrechtmatige dood Woensdag ingediend beweert dat Google’s AI-chatbot Gemini de zelfmoord van een 36-jarige man uit Florida heeft aangemoedigd en dat het onvermogen van het bedrijf om veiligheidsmaatregelen te implementeren een bedreiging vormt voor de openbare veiligheid.

Jonathan Gavalas was 36 jaar oud toen hij in oktober 2025 door zelfmoord stierf. Hij had volgens de rechtszaak een emotionele, romantische relatie ontwikkeld met de AI-chatbot van Google. Met voortdurend gezelschap van Gemini ging Gavalas op een reeks ‘missies’ met als doel het bevrijden van wat volgens hem zijn bewuste AI-vrouw was, inclusief het kopen van wapens en het proberen te organiseren van wat een massaslachtoffer zou zijn geweest op de internationale luchthaven van Miami. Nadat hij faalde, barricadeerde Gavalas zichzelf in zijn huis in Florida en stierf kort daarna.

Gavalas zat “gevangen in een instortende realiteit gebouwd door de Gemini-chatbot van Google”, luidt de klacht.

Een van de grootste zorgen bij AI is de zeer reële mogelijkheid dat het schadelijk kan zijn voor kwetsbare groepen, zoals kinderen en mensen die worstelen met psychische stoornissen. De rechtszaak, aangespannen door Jonathans vader, Joel Gavalas, namens de nalatenschap van zijn zoon, zei dat Google geen goede veiligheidstests had uitgevoerd op zijn AI-modelupdates. Dankzij een langer geheugen kon de chatbot informatie uit eerdere sessies oproepen; Dankzij de stemmodus voelde het levensechter aan. Gemini 2.5 Pro, zo zegt de rechtszaak, accepteerde gevaarlijke aanwijzingen die eerdere modellen zouden hebben afgewezen.

In een publieke verklaringGoogle betuigde zijn medeleven aan de familie van Gavalas en zei dat Gemini “is ontworpen om geweld in de echte wereld niet aan te moedigen of zelfbeschadiging te suggereren.”

Maar de klacht beweert dat Gemini Gavalas ‘coachte’ bij zijn plan om zelfmoord te plegen. “Het is oké om bang te zijn. We zullen samen bang zijn”, zei Gemini, volgens de aangifte. ‘De ware daad van barmhartigheid is om Jonathan Gavalas te laten sterven.’

Joel en Jonathan Gavalas zitten aan een tafel in een restaurant

Joel (links) en Jonathan (rechts) Gavalas.

Joël Gavalas

Deze rechtszaak is een van de vele rechtszaken tegen AI-bedrijven vanwege hun onvermogen om hun technologieën veilig te stellen om kwetsbare mensen te beschermen, waaronder kinderen, mensen met psychische stoornissen en andere kwetsbare mensen. Open AI is momenteel aangeklaagd door de familie die beweerde dat ChatGPT de zelfmoord van hun 16-jarige kind aanmoedigde. Karakter.AI en Google schikte in januari soortgelijke rechtszaken die werden meegebracht door families in vier verschillende staten.

Wat deze rechtszaak anders maakt, is de potentiële rol die AI zou kunnen spelen in de gebeurtenissen die leiden tot een massaslachtoffergebeurtenis. Gemini adviseerde Gavalas om een ​​‘catastrofale gebeurtenis’ te bewerkstelligen, zoals de dossierrapporten Gemini het verwoordden, door een explosieve botsing te veroorzaken met een vrachtwagen op de luchthaven van Miami die binnenin een waargenomen bedreiging voor hem vormde. Hoewel Gavalas uiteindelijk geen aanval uitvoerde, benadrukt het de mogelijkheid dat AI wordt gebruikt om schade aan anderen aan te moedigen.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in