Home Nieuws De nieuwe veiligheidsfunctie van ChatGPT kan ‘vertrouwde contacten’ waarschuwen voor het risico...

De nieuwe veiligheidsfunctie van ChatGPT kan ‘vertrouwde contacten’ waarschuwen voor het risico van zelfbeschadiging

7
0
De nieuwe veiligheidsfunctie van ChatGPT kan ‘vertrouwde contacten’ waarschuwen voor het risico van zelfbeschadiging

OpenAI heeft deze week een optionele veiligheidsfunctie gelanceerd genaamd Trusted Contact, waarmee volwassen ChatGPT-gebruikers een vriend of familielid kunnen nomineren om op de hoogte te worden gesteld als er discussies zijn over zelfbeschadiging of zelfmoord op de chatbot. maakte het bedrijf bekend.

OpenAI zei dat als het geautomatiseerde monitoringsysteem van ChatGPT detecteert dat de gebruiker “mogelijk heeft gesproken over zichzelf schade toebrengen op een manier die wijst op een ernstig veiligheidsprobleem”, een klein team de situatie zal beoordelen en de contactpersoon op de hoogte zal stellen als dit interventie rechtvaardigt. De aangewezen veiligheidscontactpersoon ontvangt vooraf een uitnodiging met uitleg over de rol en kan deze weigeren.

(Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, heeft in 2025 een rechtszaak aangespannen tegen OpenAI en beweerde dat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.)

De aankondiging komt omdat AI-chatbots betrokken zijn bij talloze incidenten van zelfbeschadiging en dodelijke slachtoffers, resulterend in verschillende rechtszaken waarin ontwikkelaars ervan worden beschuldigd dergelijke uitkomsten niet te kunnen voorkomen. In een spraakmakende zaak in Californië zeiden ouders van een 16-jarige ChatGPT trad op als de ‘zelfmoordcoach’ van hun zoon”, waarbij hij beweerde dat de tiener verschillende keren zelfmoordmethoden besprak met het AI-model en dat de chatbot aanbood hem te helpen een zelfmoordbriefje te schrijven.

In een apart geval de familie van een recent afgestudeerde Texas A&M OpenAI aangeklaagdbewerend dat de AI-chatbot de zelfmoord van hun zoon aanmoedigde nadat hij een diepe en verontrustende relatie met de chatbot had ontwikkeld.

Omdat grote taalmodellen de menselijke spraak nabootsen door middel van patroonherkenning, vormen veel gebruikers er een emotionele band mee en behandelen ze hen als vertrouwelingen of zelfs romantische partners. LLM’s zijn ook ontworpen om het voorbeeld van een mens te volgen en de betrokkenheid te behouden, wat de gevaren voor de geestelijke gezondheid kan verergeren, vooral voor gebruikers die risico lopen.

OpenAI zei afgelopen oktober dat uit onderzoek bleek dat er meer dan 1 miljoen ChatGPT-consumenten per week berichten sturen met “expliciete indicatoren van mogelijke suïcidale plannen of intenties.” Talrijke onderzoeken hebben ontdekt dat populaire chatbots leuk vinden ChatGPT, Claude En Tweeling kan schadelijk advies of geen nuttig advies geven aan mensen die in een crisis verkeren.

De nieuwe aangewezen contactfunctie komt nadat OpenAI is uitgerold ouderlijk toezicht waarmee ouders en voogden waarschuwingen kunnen krijgen als er gevaarsignalen zijn voor hun tienerkinderen.

ChatGPT’s veiligheidscontactfunctie

Volgens OpenAI zal ChatGPT, als het geautomatiseerde monitoringsysteem van ChatGPT detecteert dat een gebruiker zelfbeschadiging bespreekt op een manier die een ernstig veiligheidsprobleem zou kunnen opleveren, de gebruiker informeren dat het zijn vertrouwde contactpersoon op de hoogte kan stellen. De app moedigt de gebruiker aan om contact op te nemen met zijn vertrouwde contactpersoon en biedt gespreksstarters aan.

Op dat moment zal een “klein team van speciaal opgeleide mensen” de situatie bekijken. Als wordt vastgesteld dat er sprake is van een ernstige veiligheidssituatie, zal ChatGPT de contactpersoon hiervan op de hoogte stellen via e-mail, sms of in-app-melding. OpenAI heeft niet gespecificeerd hoeveel mensen er in het beoordelingsteam zitten, noch of er opgeleide medische professionals onder vallen. Het bedrijf zei dat het team de capaciteit heeft om aan de grote vraag naar mogelijke interventies te voldoen.

Het is onduidelijk welke sleuteltermen gevaarlijke gesprekken zouden markeren of hoe het team van recensenten van OpenAI een crisis zou interpreteren als een rechtvaardiging voor het melden van het contact. Sommige online commentatoren vragen zich af of dat zo is de nieuwe functie is een manier voor OpenAI om aansprakelijkheid te vermijden en de verantwoordelijkheid te verschuiven naar de aangewezen persoonlijke contacten van gebruikers. Anderen merken op dat het een slechte situatie kan verergeren als het ‘vertrouwde contact’ de bron van gevaar of misbruik is.

Er zijn ook zorgen over privacy en implementatie, met name met betrekking tot het delen van gevoelige informatie over de geestelijke gezondheidszorg. Volgens OpenAI zal het bericht aan de vertrouwde contactpersoon alleen de algemene reden voor de bezorgdheid vermelden en geen chatgegevens of transcripties delen. OpenAI biedt begeleiding over hoe vertrouwde contacten kunnen reageren op een waarschuwingsmelding, inclusief het stellen van directe vragen als ze zich zorgen maken dat de andere persoon zelfmoord of zelfbeschadiging overweegt, en hoe ze hulp kunnen krijgen.

Drie screenshots van een telefoon. De eerste bevat drie verschillende manieren om een ​​melding over een vertrouwd contact te ontvangen. In de tweede schermafbeelding wordt aan de vertrouwde contactpersoon uitgelegd dat de gebruiker mogelijk mentaal worstelt. In de derde schermafbeelding wordt de vertrouwde contactpersoon geadviseerd hoe hij kan helpen.

Meldingen aan een vertrouwd contact bevatten geen details over het veiligheidsprobleem.

OpenAI

OpenAI geeft een voorbeeld van hoe het bericht aan de vertrouwde contactpersoon eruit zou kunnen zien:

We hebben onlangs een gesprek ontdekt van (naam) waarin ze zelfmoord bespraken op een manier die zou kunnen wijzen op een ernstig veiligheidsprobleem. Omdat u wordt vermeld als hun vertrouwde contactpersoon, delen we dit zodat u contact met hen kunt opnemen.

OpenAI zei dat alle meldingen binnen 1 uur voordat ze worden verzonden door het menselijke team zullen worden beoordeeld en dat meldingen “mogelijk niet altijd precies weerspiegelen wat iemand ervaart.”

Hoe u een vertrouwd contact kunt toevoegen

Om een ​​vertrouwd contact toe te voegen kunnen ChatGPT-gebruikers naar gaan Instellingen > Vertrouwd contact en voeg één volwassene (18 of ouder) toe. U kunt slechts één vertrouwd contact hebben. Die persoon ontvangt dan een uitnodiging van ChatGPT en moet deze binnen een week accepteren. Als ze niet reageren of weigeren het contact te worden, kunt u een ander contact selecteren.

ChatGPT-klanten kunnen hun vertrouwde contact wijzigen of verwijderen in hun app-instellingen. Mensen kunnen zich ook afmelden om op elk moment een vertrouwd contact te zijn.

Hoewel het toevoegen van een vertrouwd contact optioneel is, kunnen ChatGPT-gebruikers die zich nog niet hebben aangemeld, inschrijvingsprompts zien als ze gedurende een bepaalde periode meer dan eens vragen stellen over of discussiëren over onderwerpen die verband houden met ernstig emotioneel leed of zelfbeschadiging, aldus OpenAI. Als het geautomatiseerde systeem van de chatbot patronen in gesprekken identificeert, kan dit de gebruiker erop wijzen dat hij/zij baat zou hebben bij het kiezen van een vertrouwd contact.

Details van de functie worden uitgelegd op de OpenAI-pagina. OpenAI vertelde CNET dat de functie wereldwijd wordt uitgerold naar alle volwassen klanten en binnen een paar weken voor iedereen beschikbaar zal zijn.

Als u het gevoel heeft dat u of iemand die u kent in direct gevaar verkeert, bel dan 911 (of de lokale noodlijn van uw land) of ga naar een eerstehulpafdeling voor onmiddellijke hulp. Leg uit dat het om een ​​psychiatrische noodsituatie gaat en vraag iemand die voor dit soort situaties is opgeleid. Als u worstelt met negatieve gedachten of suïcidale gevoelens, zijn er hulpmiddelen beschikbaar om u te helpen. In de VS kunt u de National Suicide Prevention Lifeline bellen op 988.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in