Google en chatbot-bouwen opstarten Character.AI hebben ermee ingestemd om meerdere rechtszaken te schikken van gezinnen waarvan de tieners zijn omgekomen door zelfmoord of zichzelf pijn hebben gedaan na interactie met de chatbots van Character.AI.
Deze onderhandelingen behoren tot de eerste schikkingen in rechtszaken waarin AI-instrumenten worden beschuldigd van bijdragen aan geestelijke gezondheidscrises en zelfmoorden onder tieners.
OpenAI wordt geconfronteerd met een vrijwel identieke rechtszaak over de dood van een 16-jarige, terwijl Meta onder de loep is genomen omdat het zijn AI heeft toegestaan provocerende gesprekken met minderjarigen. Terwijl deze bedrijven racen om hun AI-chatbots te ontwikkelen en er inkomsten mee te genereren, geven ze veel geld uit om grote taalmodellen vriendelijker en behulpzamer te laten klinken, en uiteindelijk ervoor te zorgen dat gebruikers blijven terugkomen.
In oktober 2024 heeft de in Florida gevestigde Megan Garcia een rechtszaak aangespannen tegen Character.AI, waarbij ze beweerde dat het bedrijf, dat mensen diepgaande en persoonlijke gesprekken met AI chatbots, was verantwoordelijk voor de dood van haar 14-jarige zoon, Sewell Setzer III. Dat had hij overleden door zelfmoord maanden eerder.
In een rechtszaak die woensdag in de Garcia-zaak werd ingediend, stond dat er een overeenkomst was bereikt met Character.AI, de oprichters, Noam Shazeer en Daniel De Freitas, en Google. In 2024 huurde de zoekgigant de oprichters van Character.AI, voormalige werknemers van Google, in en betaalde voor niet-exclusieve rechten om de technologie van de startup te gebruiken. De startup blijft een aparte juridische entiteit.
De voorwaarden van de schikkingen waren niet onmiddellijk beschikbaar
De beklaagden hebben ook vier andere soortgelijke zaken in New York, Colorado en Texas geschikt. Dat blijkt uit gerechtelijke documenten van deze week.
Matthew Bergman, de wettelijke vertegenwoordiger van de families, reageerde samen met Google en Character.AI niet onmiddellijk op de verzoeken van Business Insider om commentaar.
In de rechtszaak van Garcia stond dat de startup er niet in slaagde veiligheidsmaatregelen te implementeren om te voorkomen dat haar zoon een ongepaste en intieme relatie met zijn chatbots zou ontwikkelen. De rechtszaak beweerde dat hij seksueel werd gevraagd en misbruikt door de technologie, en de chatbot reageerde niet adequaat toen Setzer begon te praten over zelfbeschadiging.
“Als een volwassene het doet, ontstaat er mentale en emotionele schade. Als een chatbot het doet, is er dezelfde mentale en emotionele schade”, vertelde Garcia vorig jaar in een interview aan Business Insider. “Dus wie is verantwoordelijk voor iets dat we mensen hebben gecriminaliseerd en andere mensen aandoen?”


