Thomas Trutschel/Photothek via Getty Images
15-01-2026T01:17:33.978Z
Na wijdverspreide mondiale reacties zal het Grok niet langer worden toegestaan om AI-foto’s te maken van echte mensen in geseksualiseerde of onthullende kleding.
“We hebben technologische maatregelen geïmplementeerd om te voorkomen dat het Grok-account het bewerken van afbeeldingen van echte mensen in onthullende kleding zoals bikini’s toestaat”, zei het veiligheidsaccount van X woensdag in een blogpost op het platform. “Deze beperking geldt voor alle gebruikers, inclusief betalende abonnees.”
Het socialemediabedrijf voegde eraan toe dat het maken van afbeeldingen en de mogelijkheid om afbeeldingen via Grok op het X-platform te bewerken nu alleen beschikbaar zal zijn voor betaalde gebruikers als extra veiligheidsmaatregel.
De verandering werd aangekondigd uren nadat de hoogste aanklager van Californië zei dat hij een onderzoek was gestart naar geseksualiseerde AI-deepfakes, inclusief die van kinderen, gegenereerd door Grok. Indonesië en Maleisië geschorst Grok vanwege de beelden, en wetgevers in Groot-Brittannië hebben er publiekelijk over nagedacht.
Elon Musk, eigenaar van X en xAI, de maker van Grok, vroeg gebruikers om te kijken of ze de beeldbeperkingen van het AI-model konden omzeilen, een paar uur voordat X’s officiële account woensdag over de veranderingen berichtte.
Dit is een brekend nieuwsverhaal. Kom later terug voor updates.


