Meta-CEO Mark Zuckerberg verlaat het federale gerechtsgebouw in het centrum van Los Angeles nadat hij het bedrijf op 19 februari 2026 heeft verdedigd in een baanbrekend proces tegen verslaving aan sociale media in Los Angeles, Verenigde Staten.
Jon Putman | Anadolu | Getty-afbeeldingen
Ruim tien jaar geleden, Meta – toen bekend als Facebook – huurde onderzoekers in de sociale wetenschappen in met als doel te analyseren hoe de diensten van het sociale netwerk gebruikers beïnvloedden. Het was een manier voor het bedrijf en zijn collega’s om te laten zien dat ze serieus waren in het begrijpen van de voordelen en potentiële risico’s van hun innovaties.
Maar zoals die van Meta gerechtelijke verliezen deze week illustreren dat het werk van de onderzoekers een last kan worden. Brian Boland, een voormalige Facebook-manager die in beide processen heeft getuigd – de ene in New Mexico en de andere in Los Angeles – zegt dat de vernietigende bevindingen van Meta’s interne onderzoek en documenten schijnbaar in tegenspraak zijn met de manier waarop het bedrijf zichzelf in het openbaar portretteerde. Jury’s in de twee processen stelden vast dat Meta onvoldoende toezicht hield op de locatie, waardoor kinderen in gevaar kwamen.
Mark Zuckerbergs bedrijf begon zijn onderzoeksteams een paar jaar geleden onder druk te zetten nadat een Facebook-onderzoeker Frances Haugenwerd een prominente klokkenluider. De nieuwere lichting technologiebedrijven als OpenAI en Anthropic investeerden vervolgens zwaar in onderzoekers en gaven hen de opdracht de impact van moderne AI op gebruikers te bestuderen en hun bevindingen te publiceren.
Nu AI nu buitensporige aandacht krijgt voor de schadelijke effecten Als sommige gebruikers er last van hebben, moeten die bedrijven zich afvragen of het in hun belang is om onderzoek te blijven financieren, of om het te onderdrukken.
“Er was een periode dat er intern teams waren die naar dingen konden gaan kijken en voor een korte periode had je een aantal absoluut uitstekende onderzoekers die met iets meer vrije hand naar wat er met deze producten gebeurde keken dan ik nu begrijp”, zei Boland in een interview.
De twee nederlagen van Meta deze week hadden betrekking op verschillende zaken, maar ze hadden een gemeenschappelijk thema: het bedrijf deelde zijn kennis over de schade van zijn producten niet met het grote publiek.
Juryleden moesten miljoenen bedrijfsdocumenten beoordelen, waaronder e-mails van leidinggevenden, presentaties en intern onderzoek uitgevoerd door Meta’s medewerkers. De documenten bevatten interne onderzoeken waaruit een zorgwekkend percentage bleek te komen tienergebruikers het ontvangen van ongewenste seksuele avances op Instagram. Er was ook onderzoek, dat Meta uiteindelijk stopte, waaruit bleek dat mensen die hun gebruik van Facebook aan banden legden, minder werden depressief en angstig.
De advocaten van de eisers in de zaken vertrouwden niet alleen op intern onderzoek om hun argumenten te onderbouwen, maar die onderzoeken hielpen hun standpunten over de vermeende schuld van Meta te versterken. De verdedigingsteams van Meta voerden aan dat bepaald onderzoek oud, uit de context gehaald en misleidend was, en een gebrekkig beeld gaf van hoe het bedrijf opereert en hoe het naar veiligheid kijkt.
‘Beide kanten van het verhaal’
“De jury kreeg beide kanten van het verhaal te horen en kreeg een zeer eerlijke presentatie van de feiten, en ze moesten een beslissing nemen op basis van wat ze zagen”, zei Boland. “En beide jury’s, met heel verschillende zaken, kwamen met duidelijke uitspraken terug.”
Meta en Google’s YouTube, die ook gedaagde waren in het proces in LA, zeiden dat ze in beroep zouden gaan.
Lisa Strohman, een psycholoog en advocaat die als interne deskundige adviseur fungeerde voor de rechtszaak in New Mexico, zei dat leiders bij Meta en de hele technologie-industrie misschien dachten dat ze intern onderzoek in hun voordeel konden gebruiken en zo de gunst van het publiek konden winnen.
“Ik denk dat wat ze niet onderkenden, is dat onderzoekers ouders en familieleden zijn,” zei Strohman. “En ik denk dat wat ze zich niet realiseerden, was dat deze mensen niet omgekocht zouden worden.”
Welke public relations-winst managers ook verwachtten, het mislukte toen het onderzoek zich naar het publiek verspreidde. Het meest schadelijke incident voor Meta vond plaats in 2021, toen Haugen, een voormalig Facebook-productmanager, klokkenluider werd. lekte een schat aan documenten waaruit bleek dat het bedrijf op de hoogte was van de mogelijke schade van zijn producten.
Frances Haugen, voormalig Facebook-medewerker, spreekt tijdens een hoorzitting van de Subcommissie Communicatie en Technologie van de Commissie Energie en Handel op Capitol Hill op 1 december 2021 in Washington, DC.
Brendan Smialowski | AFP | Getty-afbeeldingen
Haugens “onthullingen waren wereldwijd een belangrijk keerpunt – niet alleen voor de bedrijven zelf, maar ook voor onderzoekers, beleidsmakers en het bredere publiek”, zegt Kate Blocker, directeur onderzoek en programma bij de non-profitorganisatie Children and Screens: Institute of Digital Media and Child Development.
De lekken leidden ook tot grote veranderingen bij Meta en in de technologie-industrie, waardoor onderzoek begon te verdwijnen dat als contraproductief voor de bedrijven kon worden beschouwd. Veel teams die vermeende schade en aanverwante kwesties bestudeerden, werden geschrapt, eerder CNBC gemeld.
Sommige bedrijven begonnen ook verwijderen bepaalde tools en kenmerken van hun diensten die externe onderzoekers gebruikten om hun platforms te bestuderen.
“Bedrijven kunnen lopend onderzoek nu als een risico beschouwen, maar onafhankelijk onderzoek van derden moet ondersteund blijven”, aldus Blocker.
Veel van het interne onderzoek dat in de processen van deze week werd gebruikt, bevatte geen nieuwe onthullingen, en veel van de documenten wel eerder uitgebracht door andere klokkenluiders, zegt Sacha Haworth, uitvoerend directeur van het Tech Oversight Project. Wat de onderzoeken eraan toevoegden, zei Haworth, waren ‘dezelfde e-mails, de woorden, de screenshots, de interne marketingpresentaties, de memo’s’ die de nodige context boden.
Terwijl de technologie-industrie zich nu agressief bezighoudt met AI, zijn bedrijven als Meta, OpenAI en Google dat ook geweest prioriteit geven aan producten boven onderzoek en veiligheid. Het is een trend die Blocker zorgen baart, die zei dat “er, net als bij de sociale media daarvoor, beperkte publieke zichtbaarheid is in wat AI-bedrijven over hun producten bestuderen.”
“AI-bedrijven lijken vooral de modellen zelf te bestuderen – modelgedrag, modelinterpreteerbaarheid en afstemming – maar er is een aanzienlijke kloof in het onderzoek naar de impact van chatbots en digitale assistenten op de ontwikkeling van kinderen”, aldus Blocker. “AI-bedrijven hebben de kans om de fouten uit het verleden niet te herhalen – we moeten dringend systemen voor transparantie en toegang opzetten die wat deze bedrijven over hun platforms weten met het publiek delen en verdere onafhankelijke evaluatie ondersteunen.”
HORLOGE: Regeldruk volgt na historisch vonnis op sociale media.



