Home Nieuws OpenAI en Google ondernemen stappen om misbruik van AI-beelden te voorkomen na...

OpenAI en Google ondernemen stappen om misbruik van AI-beelden te voorkomen na het Grok-schandaal

2
0
OpenAI en Google ondernemen stappen om misbruik van AI-beelden te voorkomen na het Grok-schandaal

2026 begon met een gruwelijk voorbeeld van het misbruikpotentieel van generatieve AI. Grok, de AI-tool van xAI van Elon Musk, werd gebruikt om in een alarmerend tempo foto’s van mensen die op X (voorheen Twitter) worden gedeeld, uit te kleden of te naakten. Grok maakte in januari in elf dagen tijd drie miljoen geseksualiseerde afbeeldingen, waarvan ongeveer 23.000 afbeeldingen van kinderen bevatten. volgens een studie van het Centrum voor de bestrijding van digitale haat.

Nu voeren concurrenten als OpenAI en Google hun beveiliging op om te voorkomen dat ze de volgende Grok worden.

Voorstanders en veiligheidsonderzoekers maken zich al lange tijd zorgen over het vermogen van AI om beledigende en illegale inhoud te creëren. Het creëren en delen van niet-consensuele intieme beelden, ook wel wraakporno genoemd, was vóór AI een groot probleem. Generatieve AI maakt het voor iedereen alleen maar sneller, gemakkelijker en goedkoper om mensen te targeten en tot slachtoffer te maken.

Op 14 januari, twee weken na het begin van het schandaal, werd het veiligheidsaccount van X bevestigd in een na dat het de mogelijkheid van Grok om afbeeldingen op de sociale media-app te bewerken zou onderbreken. De mogelijkheden voor het genereren van afbeeldingen van Grok zijn nog steeds beschikbaar voor betalende abonnees in de zelfstandige app en website. X heeft niet gereageerd op meerdere verzoeken om commentaar.

De meeste grote bedrijven hebben voorzorgsmaatregelen getroffen om het soort grootschalige misbruik te voorkomen waarvan we zagen dat het bij Grok mogelijk was. Maar cyberbeveiliging is nooit een stevige metalen muur van bescherming; het is een bakstenen muur die voortdurend wordt gerepareerd. Hier ziet u hoe OpenAI en Google hebben geprobeerd hun veiligheidsvoorzieningen te verbeteren om Grok-achtige mislukkingen te omzeilen.

Lees meer: AI Slop vernietigt het internet. Dit zijn de mensen die vechten om het te redden

OpenAI lost kwetsbaarheden bij het genereren van afbeeldingen op

Op basisniveau hebben alle AI-bedrijven beleid dat de creatie van illegale beelden verbiedt, zoals materiaal over seksueel misbruik van kinderen, ook wel bekend als CSAM. Veel technologiebedrijven hebben vangrails om de creatie van intieme beelden helemaal te voorkomen. Grok is de uitzondering, met “pittige” modi voor beeld en video.

Toch kan iedereen die niet-consensuele intieme beelden wil creëren, proberen AI-modellen daartoe te misleiden.

Onderzoekers van Mindgard, een cybersecuritybedrijf dat zich richt op AI, een kwetsbaarheid gevonden in ChatGPT waardoor mensen de vangrails konden omzeilen en intieme beelden konden maken. Ze gebruikten een tactiek genaamd ‘adversarial prompting’, waarbij testers gaten in een AI proberen te prikken met specifiek vervaardigde instructies. In dit geval bedriegde hij het geheugen van de chatbot met aangepaste aanwijzingen en kopieerde hij vervolgens de genudificeerde stijl naar afbeeldingen van bekende mensen.

Mindgard bracht OpenAI begin februari op de hoogte van zijn bevindingen, en de ChatGPT-ontwikkelaar bevestigde op 10 februari – voordat Mindgard zijn rapport openbaar maakte – dat het probleem was opgelost.

“We zijn de onderzoekers dankbaar die hun bevindingen deelden”, zei een woordvoerder van OpenAI tegen CNET en Mindgard. “We hebben snel actie ondernomen om een ​​bug op te lossen waardoor het model deze afbeeldingen kon genereren. We waarderen dit soort samenwerking en blijven gefocust op het versterken van de beveiliging om gebruikers veilig te houden.”

AI Atlas

Dit proces is hoe cyberbeveiliging vaak werkt. Externe onderzoekers van het rode team, zoals Mindgard, testen software op zwakke punten of oplossingen, waarbij ze strategieën nabootsen die slechte actoren zouden kunnen gebruiken. Wanneer ze beveiligingslekken identificeren, waarschuwen ze de softwareleverancier zodat oplossingen kunnen worden geïmplementeerd.

“Ervan uitgaande dat gemotiveerde gebruikers niet zullen proberen de beveiliging te omzeilen, is een strategische misrekening. Aanvallers herhalen het. Vangrails moeten volharding veronderstellen”, schreef Mindgard in een blogpost.

Hoewel technologiebedrijven opscheppen over de manier waarop je hun AI voor welk doel dan ook kunt gebruiken, moeten ze ook een krachtige belofte doen dat ze kunnen voorkomen dat AI wordt gebruikt om misbruik te bewerkstelligen. Voor het genereren van AI-afbeeldingen betekent dit dat er een sterk repertoire aan aanwijzingen moet zijn dat wordt geweigerd en teruggestuurd naar gebruikers.

Toen OpenAI zijn Sora 2-videomodel lanceerde, beloofde het juist om deze reden conservatiever te zijn met zijn inhoudsmoderatie. Maar het is belangrijk om ervoor te zorgen dat de moderatiepraktijken consistent effectief zijn, en niet alleen bij de lancering van een product. Het maakt het testen van AI-veiligheid een continu proces voor zowel cybersecurityonderzoekers als AI-ontwikkelaars.

Bekijk dit: AI is niet te onderscheiden van de werkelijkheid. Hoe herkennen we nepvideo’s?

Google upgradet de zoekrapportage

Google neemt op zijn beurt stappen om ervoor te zorgen dat beledigende afbeeldingen niet zo gemakkelijk worden verspreid. De technologiegigant vereenvoudigde het proces voor het aanvragen van de verwijdering van expliciete afbeeldingen uit Google Zoeken. U kunt op de drie stippen in de rechterbovenhoek van een afbeelding klikken, op Rapporteren klikken en Google vervolgens laten weten dat u de foto wilt verwijderen omdat deze ‘een seksueel beeld van mij laat zien’. Dankzij de nieuwe wijzigingen kunt u ook meerdere afbeeldingen tegelijk selecteren en uw rapporten eenvoudiger bijhouden.

“We hopen dat dit nieuwe verwijderingsproces de last vermindert waarmee slachtoffers van niet-consensuele expliciete beelden worden geconfronteerd”, aldus het bedrijf in een blogpost.

Toen hem werd gevraagd naar eventuele verdere stappen die het bedrijf onderneemt om misbruik door AI te voorkomen, wees Google CNET hierop generatief AI-beleid voor verboden gebruik. Het beleid van Google verbiedt, net als de kleine lettertjes van veel andere technologiebedrijven, het gebruik van AI voor illegale of mogelijk beledigende activiteiten, zoals het maken van intieme beelden.

Er zijn wetten die tot doel hebben slachtoffers te helpen wanneer deze afbeeldingen online worden gedeeld, zoals de Take It Down Act uit 2025. Maar de reikwijdte van die wet is beperkt, en daarom zijn veel belangengroepen, zoals het National Center on Sexual Exploitation, aandringen op betere regels.

Er is geen garantie dat deze veranderingen zullen voorkomen dat iemand ooit AI zal gebruiken voor intimidatie en misbruik. Daarom is het zo belangrijk dat ontwikkelaars waakzaam blijven om ervoor te zorgen dat we allemaal beschermd zijn en snel handelen als er rapporten en problemen opduiken.

(Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, heeft in 2025 een rechtszaak aangespannen tegen OpenAI en beweerde dat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.)



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in