Marc Benioff deelde wat volgens hem het donkerste aspect van AI is.
In een aflevering van de ‘TBPN’-show die woensdag werd gestreamd, zei de CEO van Salesforce dat hij ‘niet kon geloven waar hij naar keek’ toen hij een ‘60 Minutes’-documentaire zag over startup voor het bouwen van chatbots Character.AI en de impact ervan op kinderen.
“We weten niet hoe deze modellen werken. En om te zien hoe het werkte met deze kinderen, en toen kwamen de kinderen hun leven nemen‘, zei hij, ‘dat is het ergste dat ik ooit in mijn leven heb gezien.’
Met Character.AI kunnen gebruikers aangepaste chatbots bouwen die het gedrag van een goede vriend of romantische partner kunnen nabootsen. De startup reageerde niet onmiddellijk op het verzoek van Business Insider om commentaar op de opmerkingen van Benioff.
“Techbedrijven haten regelgeving. Ze haten het”, zei Benioff. ‘Behalve één regeling waar ze dol op zijn: Sectie 230. Wat betekent dat die bedrijven niet verantwoordelijk worden gehouden voor die zelfmoorden.’
Sectie 230 van de Amerikaanse Communications Decency Act uit 1996 beschermt socialemediabedrijven tegen aansprakelijkheid voor door gebruikers gegenereerde inhoud, terwijl ze ook berichten mogen modereren. Techgiganten gebruiken Sectie 230 als een gemeenschappelijke verdedigingsstrategie en zeggen dat het slechts platforms zijn en niet verantwoordelijk zijn voor wat gebruikers erop zeggen en doen.
“Stap één is: laten we mensen verantwoordelijk houden”, zei hij. “Laten we Sectie 230 hervormen, hervormen en herzien, en laten we proberen daarmee zoveel mogelijk levens te redden.”
Leidinggevenden, waaronder Meta’s Mark Zuckerberg en voormalig Twitter-CEO Jack Dorsey, hebben de regeling herhaaldelijk in het Congres verdedigd en gevraagd om uitbreiding ervan in plaats van afschaffing.
Vorige week stemden Google en Character.AI hiermee in meerdere rechtszaken afhandelen van gezinnen waarvan de tieners zelfmoord hebben gepleegd of zichzelf hebben bezeerd na interactie met de chatbots van Character.AI.
Deze onderhandelingen behoren tot de eerste schikkingen in rechtszaken waarin AI-instrumenten worden beschuldigd van bijdragen aan geestelijke gezondheidscrises en zelfmoorden onder tieners. OpenAI en Meta worden geconfronteerd met soortgelijke rechtszaken terwijl zij, samen met anderen, racen om grote taalmodellen te bouwen die vriendelijker en behulpzamer klinken, waardoor gebruikers uiteindelijk blijven terugkomen.

