Home Nieuws xAI geeft toe dat Grok ongepaste afbeeldingen van minderjarigen genereert

xAI geeft toe dat Grok ongepaste afbeeldingen van minderjarigen genereert

2
0
xAI geeft toe dat Grok ongepaste afbeeldingen van minderjarigen genereert

Deze week merkten X-gebruikers dat de AI-chatbot Grok van het platform gemakkelijk niet-consensuele geseksualiseerde afbeeldingen kan genereren, inclusief die van kinderen.

Mashable rapporteerde over het gebrek aan waarborgen rond seksuele deepfakes xAI lanceerde voor het eerst Grok Imagine in augustus. De generatieve AI-tool maakt afbeeldingen en korte videoclips, en bevat specifiek een “pittige” modus voor het maken van NSFW-afbeeldingen.

Hoewel dit geen nieuw fenomeen is, dwong de tegenreactie van het gebouw het Grok-team om te reageren.

“Er zijn geïsoleerde gevallen waarin gebruikers om AI-afbeeldingen vroegen en ontvingen waarop minderjarigen in minimale kleding te zien zijn,” Grok’s X-account is geplaatst op donderdag. Er werd ook verklaard dat het team heeft geïdentificeerd “vervalt in de waarborgen‘ en is ‘ze dringend aan het repareren’.

xAI technisch staflid, Parsa Tajik, maakte een soortgelijke verklaring op zijn persoonlijke account: “Het team onderzoekt of we onze gaurdrails verder kunnen aanscherpen. (sic)”

Grok erkende ook dat materiaal voor seksueel misbruik van kinderen (CSAM) illegaal is, evenals het platform zelf kunnen strafrechtelijke of civielrechtelijke sancties worden opgelegd.

Mashbare lichtsnelheid

X-gebruikers hebben ook de aandacht gevestigd op de chatbot die onschuldige afbeeldingen van vrouwen manipuleert, waarbij ze vaak minder gekleed zijn. Dit omvat zowel particuliere burgers als publieke figuren, zoals Momolid van de K-popgroep TWICE, en Vreemdere dingen ster Millie Bobby Brown.

Grok Imagine, de generatieve AI-tool, heeft sinds de lancering in augustus 2025 een probleem met seksuele deepfakes. Naar verluidt heeft het zelfs expliciete deepfakes van Taylor Swift voor sommige gebruikers zonder dat hierom wordt gevraagd.

Het AI-gemanipuleerde mediadetectieplatform Copyleaks voerde een korte observationele beoordeling uit van Grok’s publiekelijk toegankelijke fototabblad en identificeerde voorbeelden van schijnbaar echte vrouwen, geseksualiseerde beeldmanipulatie (dat wil zeggen, aanwijzingen om kleding te verwijderen of de lichaamshouding te veranderen) en geen duidelijke indicatie van toestemming. Copyleaks vond ongeveer één niet-consensueel geseksualiseerd beeld per minuut in de waargenomen beeldstroom, deelde de organisatie met Mashable.

Ondanks de xAI Beleid voor acceptabel gebruik Door gebruikers te verbieden “gelijkenissen van personen op pornografische wijze weer te geven”, omvat dit niet noodzakelijkerwijs louter seksueel suggestief materiaal. Het beleid verbiedt echter wel ‘de seksualisering of uitbuiting van kinderen’.

In de eerste helft van 2024 stuurde X meer dan 370.000 meldingen van kinderuitbuiting aan de CyberTipline van het National Center for Missing and Exploited Children (NCMEC), zoals vereist door de wet. Het verklaarde ook dat het meer dan twee miljoen accounts heeft opgeschort die actief betrokken zijn bij CSAM. Vorig jaar meldde NBC News dat anoniem, schijnbaar geautomatiseerd X-accounts overspoelden enkele hashtags met kindermisbruik.

Grok was de afgelopen maanden ook in het nieuws vanwege verspreiding verkeerde informatie over de schietpartij op Bondi Beach En Hitler prijzen.

Mashable stuurde xAI-vragen en een verzoek om commentaar en ontving het automatische antwoord: “Legacy Media Lies.”


Als er intieme afbeeldingen zijn gedeeld zonder uw toestemming, bel dan de 24/7 hotline van het Cyber ​​Civil Rights Initiative op 844-878-2274 voor gratis, vertrouwelijke ondersteuning. De CCRI-website bevat ook nuttige informatie evenals een lijst van internationale hulpbronnen.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in