Home Nieuws Uit onderzoek blijkt dat het naar beneden halen van polariserende content op...

Uit onderzoek blijkt dat het naar beneden halen van polariserende content op sociale media emoties kan kalmeren

7
0
Uit onderzoek blijkt dat het naar beneden halen van polariserende content op sociale media emoties kan kalmeren

Het verminderen van de zichtbaarheid van polariserende inhoud in feeds van sociale media kan de partijdige vijandigheid meetbaar verminderen. Om tot deze bevinding te komen, hebben mijn collega’s en ik een methode ontwikkeld die dit mogelijk maakt verander de rangschikking van de feeds van menseniets wat voorheen alleen de sociale-mediabedrijven konden doen.

Het herschikken van feeds op sociale media om de blootstelling aan berichten die antidemocratische attitudes en partijdige vijandigheid uiten, te verminderen, beïnvloedde de emoties van mensen en hun opvattingen over mensen met tegengestelde politieke opvattingen.

Ik ben een computerwetenschapper die sociaal computergebruik studeert, kunstmatige intelligentieen het web. Omdat alleen sociale mediaplatforms hun algoritmen kunnen aanpassen, hebben we een open-source webtool ontwikkeld en uitgebracht waarmee we de feeds van instemmende deelnemers op X, voorheen Twitter, in realtime konden herschikken.

Op basis van de theorie van de sociale wetenschappen hebben we een groot taalmodel gebruikt om berichten te identificeren die waarschijnlijk mensen polariseren, zoals berichten die pleiten voor politiek geweld of oproepen tot de gevangenneming van leden van de tegenpartij. Deze berichten zijn niet verwijderd; ze stonden simpelweg lager gerangschikt, waardoor gebruikers verder moesten scrollen om ze te zien. Dit verminderde het aantal berichten dat gebruikers zagen.

We hebben dit experiment tien dagen lang uitgevoerd in de weken vóór de Amerikaanse presidentsverkiezingen van 2024. We ontdekten dat het verminderen van de blootstelling aan polariserende inhoud de gevoelens van deelnemers ten opzichte van mensen van de tegenpartij meetbaar verbeterde en hun negatieve emoties verminderde terwijl ze door hun feed scrolden. Belangrijk is dat deze effecten vergelijkbaar waren bij alle politieke voorkeuren, wat erop wijst dat de interventie ten goede komt aan gebruikers, ongeacht hun politieke partij.

In dit ’60 Minuten’-segment wordt besproken hoe verdeeldheid zaaiende berichten op sociale media meer aandacht krijgen dan neutrale berichten.

Waarom het ertoe doet

Een veel voorkomende misvatting is dat mensen moeten kiezen tussen twee uitersten: op betrokkenheid gebaseerde algoritmen of puur chronologische feeds. In werkelijkheid is er een breed spectrum aan tussenliggende benaderingen, afhankelijk van waarvoor ze zijn geoptimaliseerd.

Feedalgoritmen zijn doorgaans geoptimaliseerd om uw aandacht te trekken en hebben daardoor een aanzienlijke impact uw houding, stemming en perceptie van anderen. Om deze reden is er dringend behoefte aan raamwerken die onafhankelijke onderzoekers in staat stellen nieuwe benaderingen onder realistische omstandigheden te testen.

Ons werk biedt een weg voorwaarts en laat zien hoe onderzoekers alternatieve algoritmen op grote schaal kunnen bestuderen en prototypen, en het laat zien dat platforms dankzij grote taalmodellen eindelijk de technische middelen hebben om polariserende inhoud te detecteren die de democratische houding van hun gebruikers kan beïnvloeden.

Welk ander onderzoek wordt er op dit gebied gedaan

Het testen van de impact van alternatieve feedalgoritmen op live platforms is moeilijk, en dergelijke onderzoeken zijn pas onlangs in aantal toegenomen.

Bijvoorbeeld, een recente samenwerking tussen academici en Meta ontdekten dat het veranderen van de algoritmische feed naar een chronologische feed niet voldoende was om een ​​impact op de polarisatie aan te tonen. Een verwante inspanning, de Prosociale ranking-uitdaging onder leiding van onderzoekers van de University of California, Berkeley, onderzoekt het rangschikken van alternatieven op meerdere platforms om gunstige sociale resultaten te bevorderen.

Tegelijkertijd maakt de vooruitgang in de ontwikkeling van grote taalmodellen rijkere manieren mogelijk om te modelleren hoe mensen denken, voelen en met anderen omgaan. We zien een groeiende belangstelling om gebruikers meer controle te geven, waardoor mensen kunnen beslissen welke principes bepalend moeten zijn voor wat ze in hun feeds zien – bijvoorbeeld de Bibliotheek van pluralistische waarden in Alexandrië en de Bonsai voer herrangschikkingssysteem. Sociale mediaplatforms, waaronder Blauw lucht En Xgaan ook deze kant op.

Wat is het volgende

Deze studie vertegenwoordigt onze eerste stap in de richting van het ontwerpen van algoritmen die zich bewust zijn van hun potentiële sociale impact. Er blijven veel vragen open.

We zijn van plan de langetermijneffecten van deze interventies te onderzoeken en nieuwe rankingdoelstellingen te testen om andere risico’s voor het online welzijn aan te pakken, zoals geestelijke gezondheid en levenstevredenheid. Toekomstig werk zal onderzoeken hoe meerdere doelen, zoals culturele context, persoonlijke waarden en gebruikerscontrole, in evenwicht kunnen worden gebracht om online ruimtes te creëren die gezonde sociale en maatschappelijke interactie beter ondersteunen.

De Onderzoekskorting is een korte kijk op interessant academisch werk.

Tiziano Piccardi is assistent-professor informatica bij Johns Hopkins Universiteit.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in