Home Nieuws Meta censureerde een bericht over lesbische relaties, wat bewijst dat de prioriteiten...

Meta censureerde een bericht over lesbische relaties, wat bewijst dat de prioriteiten ervan helemaal verkeerd zijn

3
0
Meta censureerde een bericht over lesbische relaties, wat bewijst dat de prioriteiten ervan helemaal verkeerd zijn

In april heeft Meta heeft zichzelf stilletjes teruggedraaid na het verwijderen van een Instagram-post ter ere van oudere lesbische relaties in Brazilië. De geschrapte post was niet seksueel van aard en bevatte geen materiaal dat schadelijk was voor minderjarigen. De post in kwestie documenteerde een momentopname van een moment in de geschiedenis waarop lesbiennes gedwongen werden hun relaties als ‘huisgenoten’ of ‘vriendinnen’ te verbergen en hun liefde uit het publieke register werd geschrapt. Niettemin heeft Meta de inhoud verwijderd.

Meta haalde zijn regels voor haatzaaien aan. De Raad van Toezicht erkende later wat vanaf het begin duidelijk had moeten zijn: de zaak Brazilië was een voorbeeld van overdreven handhaving tegen een gemarginaliseerde gemeenschap, aangedreven door geautomatiseerde systemen die de context niet konden lezen, de taal niet konden herwinnen, of zelfs de volledige post zelf. De inhoud werd pas hersteld na tussenkomst van buitenaf en belangenbehartiging van de LGBTQ+-gemeenschap.

Mashable 101 Fanfavoriet: Stem op je favoriete maker Vandaag!

Deze zaak wordt nu behandeld als een kleine fout bij het modereren van inhoud, maar beleidsmakers moeten erkennen dat het een duidelijke waarschuwing is over wat er gebeurt als wetgevers platforms ertoe aanzetten inhoud te controleren in plaats van het ontwerp vast te leggen. In het hele land haasten staten zich om ‘kinderen online te beschermen’ het beperken van de toegang tot sociale media of het onder druk zetten van bedrijven om vaag gedefinieerde ‘schadelijke’ inhoud te verwijderen. Maar wat er in Brazilië gebeurde, laat de menselijke kosten van die aanpak zien.

Wanneer platforms worden gestimuleerd om spraak snel en op grote schaal te verwijderen, worden ze geen betere beoordelaars van nuances. Sociale media worden een bot instrument, en de eerste mensen die getroffen worden zijn degenen wier verhalen een menselijke context en radicale empathie vereisen om begrepen te worden.

Als wetgevers kinderen daadwerkelijk willen beschermen, moeten ze stoppen met het vragen aan platforms om te beslissen welke verhalen acceptabel zijn, en moeten ze beginnen met het reguleren van fundamentele ontwerpkeuzes die überhaupt schade veroorzaken, zoals eindeloos scrollen, op betrokkenheid gebaseerde aanbevelingen en op surveillance gebaseerde feeds.

Dit is de reden waarom dat onderscheid belangrijk is, vooral voor LGBTQ+-kinderen en andere gemarginaliseerde gemeenschappen, zoals neurodivergerende kinderen. LGBTQ+-jongeren zijn veel vaker dan hun leeftijdsgenoten afhankelijk van onlineruimtes om gemeenschap te vindeninformatie en ondersteuning, vaak omdat die dingen thuis of op school niet beschikbaar of onveilig zijn. Maar ze zijn ook aanzienlijk waarschijnlijker om in onveilige online interacties terecht te komen: intimidatie, ‘grooming’, doxxing of geduwd worden in risicovolle ruimtes waar ze niet naar op zoek waren.

In Australië, na a verbod op sociale media voor iedereen onder de 16 jaar werd uitgevaardigd, merkten voorstanders van de rechten van gehandicapten op autistische jongeren werden afgesneden van enkele van de enige steun- en peernetwerken die voor hen beschikbaar waren.

Aanbevelingssystemen begrijpen kwetsbaarheid niet, maar wel betrokkenheid. Wanneer een queer kind naar een community zoekt, reageren platforms vaak door agressief te versterken wat hen aan het klikken houdt. Meestal betekent dit steeds meer geseksualiseerde inhoud, volwassen vreemden, extremistische retoriek of roofzuchtige verhalen die precies weten hoe ze isolatie moeten uitbuiten.

Oneindig scrollen maakt het voor adolescenten veel moeilijker om zich terug te trekken, aldus de krant Elektronisch privacy-informatiecentrumen nog meer voor mensen in kwetsbare gemeenschappen. Algoritmische ‘vriend’- of’ account’-suggesties doen de liminale grenzen tussen tieners en volwassenen vervagen. Zwakke standaardinstellingen maken het moeilijk om te blokkeren, te dempen of te verdwijnen.

Jongeren, en niet alleen LGBTQ+-jongeren, worden online blootgesteld aan schade omdat platforms zijn gebouwd om de aandacht te trekken en niet om gebruikers te beschermen. Ouders hebben gelijk als ze zich zorgen maken en pleiten voor verandering. Maar een op inhoud gebaseerde framing mist het echte probleem.

De grootste risico’s waarmee kinderen online worden geconfronteerd, komen niet voort uit een enkele slechte post die door de mode glipt, maar uit geautomatiseerde systemen die inhoud naar kinderen pushen waar ze niet om hebben gevraagd, hen in contact brengen met mensen die ze niet kennen en hen laten scrollen lang nadat er waarschuwingssignalen verschijnen.

Beleidsmakers op zowel staats- als federaal niveau moeten regelgeving ontwerpen die deze risico’s rechtstreeks aanpakt. Ontwerpcodes die bij de leeftijd passen, vertellen platforms niet welke spraak ze moeten toestaan, maar ze kunnen platforms wel vertellen hoe ze zich moeten gedragen. Ontwerpcodes vereisen veiliger standaarden, zoals limieten op gedragsprofilering, sterkere blokkeringsinstrumenten, verminderde versterking van ongevraagde aanbevelingen en vangrails die viraliteit en dwangmatig gebruik vertragen.

Het publiek zou moeten pleiten voor productverfijning, in plaats van schending van de rechten van het Eerste en Vierde Amendement. Ontwerpcodes verkleinen de kans dat een nieuwsgierig of eenzaam kind algoritmisch in gevaar wordt gesluisd, zoals ik, op zoek naar gemeenschap en in de richting van risico wordt geduwd door systemen die er niet om gaven wie ik was.

Bij de leeftijd passende ontwerpcodes bieden een uitweg uit deze puinhoop. Door te reguleren hoe platforms worden gebouwd in plaats van wat mensen mogen zeggen, verminderen ontwerpcodewetten de schade zonder bedrijven in culturele censors te veranderen. Ze hebben geen platforms nodig om teruggewonnen beledigingen, queergeschiedenis of politieke toespraken te interpreteren. In plaats daarvan zouden bedrijven moeten worden verplicht een einde te maken aan de verslaving aan en de risico’s op het gebied van techniek.

We hebben niet meer inhoud of platformverboden nodig. We hebben minder schadelijke systemen nodig. Als we kinderen online willen beschermen, vooral degenen die al het meeste risico lopen, herinnert deze zaak ons ​​eraan waar we moeten beginnen.

Dit artikel weerspiegelt de mening van de schrijver.

Lennon Torres is bewegingsdirecteur bij de Warmte-initiatief en oprichter van De Aandachtsstudio.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in