De Oversight Board dringt er nogmaals bij Meta op aan om de regels rond door AI gegenereerde inhoud te herzien. Deze keer zegt het bestuur dat Meta een aparte regel voor AI-inhoud moet creëren die onafhankelijk is van het desinformatiebeleid, moet investeren in betrouwbaardere detectietools en beter gebruik moet maken van digitale watermerken, naast andere veranderingen.
De aanbevelingen van de groep komen voort uit een door AI gegenereerde video die vorig jaar werd gedeeld en die beweerde beschadigde gebouwen in de Israëlische stad Haifa te tonen tijdens het Israëlisch-Iran-conflict in 2025. De clip, die meer dan 700.000 views opleverde, werd geplaatst door een account dat beweerde een nieuwskanaal te zijn, maar in werkelijkheid werd beheerd door iemand op de Filipijnen.
Nadat de video aan Meta was gerapporteerd, weigerde het bedrijf deze te verwijderen of een AI-label met ‘hoog risico’ toe te voegen dat duidelijk zou hebben aangegeven dat de inhoud met AI was gemaakt of gemanipuleerd. Het bestuur heeft de beslissing van Meta om het label ‘hoog risico’ niet toe te voegen vernietigd en zegt dat de zaak licht werpt op verschillende gebieden waar de huidige AI-regels van het bedrijf tekortschieten.
“Meta moet meer doen om de verspreiding van misleidende, door AI gegenereerde inhoud op zijn platforms aan te pakken, onder meer door niet-authentieke of onrechtmatige netwerken van accounts en pagina’s, vooral als het gaat om zaken van openbaar belang, zodat gebruikers onderscheid kunnen maken tussen wat echt en nep is”, schreef het bestuur in zijn besluit. Meta schakelde uiteindelijk drie accounts uit die aan de pagina waren gekoppeld nadat het bord ‘duidelijke signalen van bedrog’ had gemarkeerd.
Een van de belangrijkste aanbevelingen van het bestuur is dat Meta een speciale regel voor door AI gegenereerde inhoud creëert, los van het desinformatiebeleid. De regel zou volgens het bestuur details moeten bevatten over hoe en wanneer gebruikers AI-inhoud moeten labelen, evenals informatie over hoe Meta degenen bestraft die de regel overtreden.
Het bestuur was ook zeer kritisch over de manier waarop Meta de huidige ‘AI Info’-labels gebruikt, en merkte op dat de manier waarop ze worden toegepast ‘noch robuust noch alomvattend genoeg is om de schaal en snelheid van door AI gegenereerde inhoud aan te kunnen’, vooral in tijden van conflict of crisis. “Een systeem dat te afhankelijk is van zelfonthulling van AI-gebruik en geëscaleerde beoordeling (wat niet vaak voorkomt) om deze output op de juiste manier te labelen, kan de uitdagingen van de huidige omgeving niet aangaan.”
Meta moet volgens het bestuur ook investeren in meer geavanceerde detectietechnologie die AI-media, inclusief audio en video, op betrouwbare wijze kan labelen. De groep voegde eraan toe dat het “bezorgd” was over berichten dat het bedrijf “inconsequent” digitale watermerken implementeert op AI-inhoud die is gemaakt door zijn eigen AI-tools.
Meta reageerde niet onmiddellijk op een verzoek om commentaar op het besluit van de Oversight Board. Het bedrijf heeft zestig dagen de tijd om formeel op de aanbevelingen te reageren.
Het besluit is niet de eerste keer dat het bestuur kritisch staat tegenover Meta’s omgang met AI-inhoud. De groep heeft de gemanipuleerde mediaregels van het bedrijf bij twee andere gelegenheden als “onsamenhangend” omschreven, en heeft het bedrijf bekritiseerd omdat het afhankelijk was van derde partijen, waaronder organisaties voor factchecking, om problematische inhoud te signaleren. Meta’s afhankelijkheid van factcheckers en andere ‘vertrouwde partners’ werd in deze zaak opnieuw aan de orde gesteld, waarbij het bestuur zei dat het van deze groepen had gehoord dat Meta ‘minder reageert op outreach en zorgen, deels als gevolg van een aanzienlijke vermindering van de capaciteiten voor Meta’s interne teams.’ Meta, zo schrijft het bestuur, “zou in staat moeten zijn om dergelijke schadebeoordelingen zelf uit te voeren, in plaats van uitsluitend te vertrouwen op partners die hen tijdens een gewapend conflict bereiken.”
Hoewel het besluit van de Oversight Board betrekking heeft op een bericht van vorig jaar, heeft de kwestie van door AI gegenereerde inhoud tijdens gewapende conflicten een nieuwe urgentie gekregen tijdens het laatste conflict in het Midden-Oosten. Sinds het begin van de aanvallen van de VS en Israël op Iran eerder deze maand is er een scherpe toename geweest van door virale AI gegenereerde desinformatie op sociale media. Het bestuur, dat eerder liet doorschemeren dat het graag zou willen samenwerken met generatieve AI-bedrijven, voegde een suggestie toe die niet alleen op Meta van toepassing lijkt te zijn.
“De industrie heeft samenhang nodig om gebruikers te helpen misleidende, door AI gegenereerde inhoud te onderscheiden, en platforms moeten misbruik van accounts en pagina’s die dergelijke output delen, aanpakken”, schreef het.

