Home Nieuws De deepfake nudes-crisis op scholen is veel erger dan je dacht

De deepfake nudes-crisis op scholen is veel erger dan je dacht

3
0
De deepfake nudes-crisis op scholen is veel erger dan je dacht

Toch zijn er duidelijke patronen zichtbaar. In bijna alle gevallen zouden tienerjongens verantwoordelijk zijn voor het maken van de afbeeldingen of video’s. Ze worden vaak gedeeld in sociale media-apps of via instant messaging met klasgenoten. En ze zijn enorm schadelijk voor de slachtoffers. “Ik ben bang dat ze elke keer dat ze mij zien, die foto’s zien”, aldus een slachtoffer in Iowa gezegd eerder dit jaar. “Ze heeft gehuild. Ze heeft niet gegeten”, zegt de familie van iemand anders gezegd.

In meerdere gevallen willen slachtoffers vaak niet naar school of worden ze geconfronteerd met het zien van degenen die expliciete afbeeldingen of video’s van hen hebben gemaakt. “Ze voelt zich hopeloos omdat ze weet dat deze beelden waarschijnlijk op het internet terecht zullen komen en pedofielen zullen bereiken”, zegt advocaat Shane Vogt, en drie Yale Law School-studenten, Catharine Strong, Tony Sjodin en Suzanne Castillo, die vertegenwoordigen een niet bij naam genoemde tiener uit New Jersey voert juridische stappen tegen een naaktdienst. “Ze is ernstig bedroefd door de wetenschap dat deze beelden beschikbaar zijn, en ze zal de rest van haar leven het internet in de gaten moeten houden om te voorkomen dat ze zich verspreiden.”

In Zuid-Korea En AustraliëScholen hebben leerlingen de optie gegeven om hun foto’s niet in jaarboeken te plaatsen of zijn gestopt met het plaatsen van afbeeldingen van leerlingen op hun officiële sociale media-accounts, waarbij ze het gebruik ervan voor potentieel deepfake-misbruik aanhaalden. “Over de hele wereld zijn er gevallen geweest waarin schoolfoto’s van openbare sociale mediapagina’s werden gehaald, gewijzigd met behulp van AI en omgezet in schadelijke deepfakes”, zegt een school in Australië. gezegd. “Het beeldmateriaal zal in plaats daarvan zijprofielen, silhouetten, achterkanten van hoofden, groepsfoto’s op afstand, creatieve filters of goedgekeurde stockfotografie bevatten.”

Seksuele deepfakes gemaakt met behulp van AI bestaan ​​sinds eind 2010 2017; Maar naarmate generatieve AI-systemen opkwamen en krachtiger werden, hebben ze geleid tot een schimmig ecosysteem van ‘nudificatie’- of ‘uitkleed’-technologieën. Met tientallen apps, bots en websites kan iedereen met slechts een paar klikken geseksualiseerde afbeeldingen en video’s van anderen maken, vaak met geen technische kennis.

“Wat AI verandert is schaal, snelheid en toegankelijkheid”, zegt Siddharth Pillai, medeoprichter en directeur van de RATI Foundation, een in Mumbai gevestigde organisatie die zich inzet om geweld tegen vrouwen en kinderen te voorkomen. “De technische barrière is aanzienlijk gedaald, wat betekent dat meer mensen, inclusief adolescenten, met minimale inspanning overtuigender resultaten kunnen produceren. Zoals bij veel door AI mogelijk gemaakte schade resulteert dit in een overvloed aan inhoud.”

Amanda Goharian, directeur onderzoek en inzichten bij kinderveiligheidsgroep Thorn, zegt dat uit hun onderzoek blijkt dat er verschillende motivaties betrokken zijn bij tieners die deepfake-misbruik creëren, variërend van seksuele motivaties, nieuwsgierigheid, wraak, of zelfs tieners die elkaar uitdagen om de beelden te creëren. Uit onderzoek waarbij volwassenen betrokken zijn die deepfake-seksueel misbruik hebben gecreëerd, blijkt eveneens dat: tal van verschillende redenen waarom de afbeeldingen kunnen worden gemaakt. “Het doel is niet altijd seksuele bevrediging”, zegt Pillai. “Steeds vaker is de bedoeling vernedering, denigratie en sociale controle.”

“Het gaat niet alleen om de technologie”, zegt Tanya Horeck, hoogleraar feministische mediastudies en onderzoeker die zich richt op gendergerelateerd geweld. geseksualiseerde deepfakes op Britse scholen aan de Anglia Ruskin Universiteit. “Het gaat om de al lang bestaande genderdynamiek die deze misdaden mogelijk maakt.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in