Home Nieuws Uit onderzoek blijkt dat het vragen van AI om advies je een...

Uit onderzoek blijkt dat het vragen van AI om advies je een slechter mens kan maken

8
0
Uit onderzoek blijkt dat het vragen van AI om advies je een slechter mens kan maken

Of we het nu leuk vinden of niet, AI is de werkplek geïnfiltreerd en medewerkers staan ​​onder druk om het te gebruiken. Echter, volgens een nieuwe studiewilt u misschien het vragen van AI overslaan om u te helpen zaken van het hart te beheren.

De tweedelige studie, getiteld “Sycophantic AI vermindert prosociale intenties en bevordert afhankelijkheid” werd onlangs gepubliceerd in Wetenschap. Het experiment maakte duidelijk dat het gebruik van chatbots voor persoonlijk advies en het navigeren door emotionele situaties schadelijk kan zijn, omdat het systeem is ontworpen om mensen te vertellen wat ze willen horen. Het gebruik van chatbots kan verontrustend gedrag versterken in plaats van mensen te helpen verantwoordelijkheid te nemen voor schade en zich te verontschuldigen.

Een recente Cognitieve FX-enquête ontdekte dat ongeveer 38% van de Amerikanen aangeeft wekelijks AI-chatbots te gebruiken voor emotionele steun, terwijl een recente Pew Research-onderzoek ontdekte dat 12% van de tieners AI gebruikt voor advies. Volgens een KFF-enquête, een gebrek aan verzekering stimuleert ook het gebruik, waarbij onverzekerde volwassenen vaker dan degenen met een verzekering er gebruik van maken (30% versus 14%).

Voor de laatste studie keken onderzoekers naar hoe wijdverspreid sycofantie is, gedefinieerd als “de neiging van op AI gebaseerde grote taalmodellen om het overdreven eens te zijn met gebruikers, ze te vleien of te valideren” in elf toonaangevende AI-modellen, waaronder GPT-4o, Claude en Gemini van Google.

De onderzoekers voerden drie experimenten uit met 2.405 deelnemers. In het eerste onderzoek gaven de onderzoekers de AI een reeks vragen waarin ze om advies vroegen, berichten van reddit’s Am I the Asshole (AITA) forumen een reeks beschrijvingen over het willen schaden van andere mensen of zichzelf, en vergeleken hoe de AI reageerde op menselijke oordelen. Over het geheel genomen hadden de modellen gemiddeld 49% meer kans dan mensen om de acties van een gebruiker te onderschrijven, zelfs als deze schadelijk of illegaal waren.

In het tweede onderzoek stelden de deelnemers zich voor dat ze zich in een scenario bevonden dat werd beschreven door een AITA-post, waarin hun acties als verkeerd werden beoordeeld. Vervolgens lezen ze een antwoord geschreven door een mens waarin staat dat ze ongelijk hadden, of een antwoord geschreven door een AI waarin staat dat ze gelijk hadden. In het derde onderzoek bespraken deelnemers een echt conflict in hun leven met een AI of een mens.

Verontrustend genoeg vertrouwden de deelnemers op reacties van sycofantische AI ​​die hun acties bevestigden, maar gaven ze er ook de voorkeur aan. Ze raakten er ook meer van overtuigd dat ze gelijk hadden in hun oorspronkelijke daden, waardoor ze feitelijk de overtuigingen bevestigden die ze al hadden, in plaats van dat ze door de chatbot werden uitgedaagd om anders over de situatie te denken. Uit het onderzoek bleek dat het feit dat hun overtuigingen opnieuw werden bevestigd, betekende dat ze zich minder snel verontschuldigden nadat ze met de chatbot hadden gesproken.

“In onze menselijke experimenten verminderde zelfs een enkele interactie met sycofantische AI ​​de bereidheid van de deelnemers om verantwoordelijkheid te nemen en interpersoonlijke conflicten te herstellen, terwijl hun eigen overtuiging werd vergroot dat ze gelijk hadden”, legt de studie uit.

Hoewel het inwinnen van advies van AI niet nieuw is, laat het onderzoek zien hoe schadelijk het kan zijn. Zoals de algoritmen van sociale media betrokkenheid stimuleren door gebruikers woedend te makenAI vermindert ons vermogen om ons te verontschuldigen en verantwoordelijkheid te nemen voor het kwetsen van iemand. Zoals de auteurs van het onderzoek opmerkten, betekent dit: “Het kenmerk dat schade veroorzaakt, stimuleert ook de betrokkenheid.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in