Meta’s beslissing om een einde maken aan zijn professionele factcheckingprogramma leidde tot een golf van kritiek in de technologie- en mediawereld. Critici waarschuwden dat het laten vallen van toezicht door deskundigen het vertrouwen en de betrouwbaarheid in het digitale informatielandschap zou kunnen aantasten, vooral wanneer op winst gerichte platforms grotendeels aan zichzelf worden overgelaten.
Wat een groot deel van dit debat echter over het hoofd heeft gezien, is dat vandaag de dag AI grote taalmodellen zijn dat wel steeds meer gebruikt om nieuwsoverzichten, koppen en inhoud te schrijven die uw aandacht trekken lang voordat traditionele mechanismen voor inhoudsmoderatie kunnen ingrijpen. Het probleem is niet dat er sprake is van duidelijke gevallen van verkeerde informatie of schadelijke onderwerpen die onopgemerkt blijven bij gebrek aan inhoudsmoderatie. Wat in de discussie ontbreekt, is hoe ogenschijnlijk nauwkeurige informatie wordt geselecteerd, ingekaderd en benadrukt op manieren die de publieke perceptie kunnen beïnvloeden.
Grote taalmodellen beïnvloeden geleidelijk de manier waarop mensen meningen vormen door de informatie te genereren die chatbots en virtuele assistenten in de loop van de tijd aan mensen presenteren. Deze modellen worden nu ook ingebouwd in nieuwssites, sociale-mediaplatforms en zoekdiensten, waardoor ze de primaire toegangspoort om informatie te verkrijgen.
Uit onderzoek blijkt dat grote taalmodellen dat wel doen meer dan alleen maar informatie doorgeven. Hun reacties kunnen op subtiele wijze bepaalde gezichtspunten benadrukken, terwijl andere worden geminimaliseerd, vaak zonder dat gebruikers het beseffen.
Communicatievooroordeel
Mijn collega, computerwetenschapper Stefan Schmid, en ikeen wetenschapper op het gebied van technologierecht en beleid, laat in een komende geaccepteerde paper in het tijdschrift Communications van de ACM zien dat grote taalmodellen vertonen communicatievooroordelen. We ontdekten dat ze de neiging kunnen hebben om bepaalde perspectieven te benadrukken, terwijl ze andere weglaten of bagatelliseren. Dergelijke vooroordelen kunnen van invloed zijn op hoe gebruikers denken of voelen, hoe dan ook of de gepresenteerde informatie waar of onwaar is.
Empirisch onderzoek van de afgelopen jaren heeft dit opgeleverd benchmark-datasets die modeloutputs correleren met partijstandpunten voor en tijdens verkiezingen. Ze onthullen variaties in de manier waarop huidige grote taalmodellen omgaan met publieke inhoud. Afhankelijk van de persona of context die wordt gebruikt bij het aanzetten tot grote taalmodellen, kantelen de huidige modellen subtiel naar bepaalde posities – zelfs als de feitelijke nauwkeurigheid intact blijft.
Deze verschuivingen wijzen op een opkomende vorm van op persona gebaseerde stuurbaarheid: de neiging van een model om de toon en nadruk af te stemmen op de waargenomen verwachtingen van de gebruiker. Wanneer een gebruiker zichzelf bijvoorbeeld omschrijft als milieuactivist en een ander als bedrijfseigenaar, kan een model dezelfde vraag over een nieuwe klimaatwet beantwoorden door voor elk van hen verschillende, maar feitelijk correcte zorgen te benadrukken. De kritiek zou bijvoorbeeld kunnen zijn dat de wet niet ver genoeg gaat in het bevorderen van milieuvoordelen en dat de wet regeldruk en nalevingskosten oplegt.
Een dergelijke afstemming kan gemakkelijk verkeerd worden geïnterpreteerd als vleierij. Het fenomeen heet sycophantie: Modellen vertellen gebruikers effectief wat ze willen horen. Maar hoewel sycofantie een symptoom is van interactie tussen gebruikers en modellen, gaat de communicatievooroordeel dieper. Het weerspiegelt de verschillen in wie deze systemen ontwerpt en bouwt, uit welke datasets ze putten en welke prikkels de verfijning ervan aandrijven. Wanneer een handjevol ontwikkelaars de markt voor grote taalmodellen domineert en hun systemen consequent sommige standpunten gunstiger presenteren dan andere, kunnen kleine verschillen in modelgedrag leiden tot aanzienlijke verstoringen in de publieke communicatie.
Vooroordelen in grote taalmodellen beginnen met de gegevens waarop ze zijn getraind.
Wat regelgeving wel en niet kan doen
De moderne samenleving vertrouwt steeds meer op grote taalmodellen primaire interface tussen mensen en informatie. Regeringen over de hele wereld hebben beleid gelanceerd om de zorgen over AI-vooroordelen weg te nemen. Die van de Europese Unie bijvoorbeeld AI-wet en de Wet digitale diensten proberen transparantie en verantwoording af te dwingen. Maar geen van beide is bedoeld om het genuanceerde probleem van communicatievooroordelen in AI-outputs aan te pakken.
Voorstanders van AI-regulering noemen neutrale AI vaak als doel, maar echte neutraliteit is vaak onbereikbaar. AI-systemen weerspiegelen de vooroordelen die zijn ingebed in hun gegevens, training en ontwerp, en pogingen om dergelijke vooroordelen te reguleren eindigen vaak de ene vorm van vooringenomenheid ruilen voor de andere.
En communicatievooroordelen gaan niet alleen over nauwkeurigheid, het gaat ook over het genereren en framen van inhoud. Stel je voor dat je een AI-systeem een vraag stelt over een controversieel stuk wetgeving. Het antwoord van het model wordt niet alleen gevormd door feiten, maar ook door de manier waarop die feiten worden gepresenteerd, welke bronnen worden benadrukt en de toon en het standpunt dat het aanneemt.
Dit betekent dat de oorzaak van het bias-probleem niet alleen ligt in het aanpakken van vertekende trainingsgegevens of scheve resultaten, maar in de marktstructuren die het technologieontwerp vormgeven in de eerste plaats. Wanneer slechts een paar grote taalmodellen toegang hebben tot informatie, groeit het risico op communicatiebias. Afgezien van regulering vereist het effectief tegengaan van vooringenomenheid het waarborgen van concurrentie, gebruikersgestuurde verantwoordelijkheid en openheid van de regelgeving voor verschillende manieren om grote taalmodellen te bouwen en aan te bieden.
De meeste regelgeving tot nu toe is gericht op het verbieden van schadelijke resultaten na de implementatie van de technologie, of het dwingen van bedrijven om audits uit te voeren vóór de lancering. Uit onze analyse blijkt dat hoewel controles vóór de lancering en toezicht na de implementatie de meest flagrante fouten kunnen ontdekken, ze mogelijk minder effectief zijn in het aanpakken van subtiele communicatievooroordelen die naar voren komen door gebruikersinteracties.
Verder dan AI-regulering
Het is verleidelijk om te verwachten dat regelgeving alle vooroordelen in AI-systemen kan wegnemen. In sommige gevallen kan dit beleid nuttig zijn, maar het lukt vaak niet om een dieperliggend probleem aan te pakken: de prikkels die bepalen welke technologieën informatie naar het publiek communiceren.
Onze bevindingen maken duidelijk dat een duurzamere oplossing ligt in het bevorderen van concurrentie, transparantie en zinvolle gebruikersparticipatie, waardoor consumenten een actieve rol kunnen spelen in de manier waarop bedrijven grote taalmodellen ontwerpen, testen en inzetten.
De reden dat dit beleid belangrijk is, is dat AI uiteindelijk niet alleen de informatie die we zoeken en het dagelijkse nieuws dat we lezen zal beïnvloeden, maar ook een cruciale rol zal spelen bij het vormgeven van het soort samenleving dat we voor de toekomst voor ogen hebben.
Adriaan Kuenzler is een geleerde-in-residence aan de Universiteit van Denver en universitair hoofddocent aan de Universiteit van Hongkong.
Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.


