Toen vorig jaar een luchtkwaliteitsbureau in Zuid-Californië een nieuwe regel voorstelde om consumenten aan te moedigen warmtepompen te kopen in plaats van gaskachels, werd het bureau overspoeld met 20.000 reacties die zich tegen het idee verzetten – veel meer dan normaal. “Vanwege het volume en de aard van deze inzendingen had South Coast AQMD zorgen over de authenticiteit ervan”, zegt Rainbow Yeung, woordvoerder van het agentschap. De uitvoerend directeur van het bureau kreeg een e-mail waarin hij hem bedankte voor zijn “verzet” tegen een regel die zijn eigen team had opgesteld.
Om de geldigheid van de reacties te controleren, nam het bureau contact op met een kleine groep reageerders (172 mensen) om te bevestigen dat zij de e-mails daadwerkelijk hadden verzonden. Bijna niemand reageerde. Maar van de vijf mensen die dat wel deden, zeiden er drie dat ze niets wisten van de opmerkingen die onder hun eigen naam waren ingediend. In een afzonderlijk onderzoek begon ook een actievoerder van de Sierra Club contact op te nemen met mensen op de lijst; de vier mensen die hij bereikte, zeiden ook dat ze geen e-mails hadden verzonden.
De LA-tijden onlangs gemeld dat CiviClick, een bedrijf dat zichzelf factureert als aanbieder van “AI-powered advocacy tools”, had de campagne geleid om commentaar van de oppositie te sturen. De klant was een public affairs-consulent met banden met de gasindustrie.
CiviKlik ontkent dat het zonder toestemming een e-mail heeft verzonden of dat het AI heeft gebruikt om geautomatiseerde berichten te fabriceren. Het luchtkwaliteitsbeheerdistrict onderzoekt de situatie nog steeds; zei de directeur in a recente bijeenkomst dat het team meer ‘agressieve’ manieren aan het onderzoeken was om commentatoren te samplen, omdat het geen definitieve conclusies kon trekken uit de beperkte eerste reactie.
Ongeacht wat er is gebeurd, het wijst op een bredere vraag: als AI nu gemakkelijk mensen kan nabootsen – en als opmerkingen kunnen worden ingediend zonder medeweten van iemand – hoe kunnen overheidsinstanties dan daadwerkelijk weten wanneer een openbare opmerking door een burger is geschreven in plaats van door een bot?
Valse reacties zijn niet nieuw. In 2017 ontving de FCC 22 miljoen reacties tijdens het debat over netneutraliteitsregels – en zo 18 miljoen daarvan bleken later nep te zijn. Miljoenen kwamen van a alleenstaande studente; een half miljoen kwam van Russische e-mailadressen. Na een onderzoek heeft de New Yorkse procureur-generaal Letitia James beboet ‘leadgenerator’-bedrijven die gezamenlijk miljoenen echte mensen hadden nagebootst toen ze opmerkingen indienden.
AI zou het in theorie gemakkelijker kunnen maken om valse opmerkingen te schrijven en in te dienen die echt klinken. CiviClick zegt dat het eenvoudigweg AI gebruikt om echte mensen te helpen hun opmerkingen te personaliseren. Het platform stelt gebruikers vragen die verband houden met het probleem (bijvoorbeeld hoe een belastingverhoging hun budget zou beïnvloeden) en stelt vervolgens een e-mail op maat. (Het bedrijf gebruikt ook AI om te voorspellen hoe waarschijnlijk het is dat iemand op een campagne zal reageren.)
CiviClick-oprichter en CEO Chazz Clevinger zegt dat hij niet kon ingaan op de details van de campagne in Zuid-Californië, maar benadrukt dat deze op betekenisvolle wijze de authentieke opvattingen van mensen in de regio weergeeft. “Een huiseigenaar in Riverside County die onlangs een gasoven had geïnstalleerd, schreef een ander bericht dan een huurder in Los Angeles die zich zorgen maakte over de nalevingskosten van de verhuurder”, vertelt hij. Snel bedrijf. “Een aannemer in San Bernardino County die nieuwe huizen bouwt, schreef een andere boodschap dan een gepensioneerde in Orange County die zich zorgen maakte over de spanning op het elektriciteitsnet tijdens hittegolven.” Hij stelt dat de tool mensen eenvoudigweg helpt ‘hun oprechte zorgen onder woorden te brengen’, en dat deze niet minder legitiem zijn dan berichten die helemaal opnieuw zijn geschreven.
De campagnevoerder van de Sierra Club heeft een andere mening. Zelfs als iemand ermee instemt dat AI een opmerking aanpast, kan dit problematisch zijn. “Regelgevers geven voorrang aan op maat gemaakte opmerkingen, die tijd en moeite vergen om te verzenden, versus standaardbrieven of petities waarvoor dat niet het geval is”, zegt Dylan Plummer, campagneadviseur voor de Clean Heat-campagne van de Sierra Club. “Het gebruik van AI om op maat gemaakte opmerkingen te genereren creëert de illusie van betrokken individuen die bereid zijn tijd te besteden aan het opstellen van een doordachte verklaring over een kwestie, terwijl ze in feite op hetzelfde niveau betrokken zijn als iemand die een traditionele standaardbrief of petitie heeft ondertekend.”
De grotere uitdaging, zegt Plummer, is of sommige publieke commentaren worden toegeschreven aan mensen die er nooit iets mee te maken hebben gehad. In een ander geval in Californië begon hij mensen te bellen die opmerkingen hadden ingediend over een voorgestelde regel in het Bay Area Air District. Een andere non-profitorganisatie, het Energy and Policy Institute, heeft een verzoek om openbare registers ingediend om kopieën te krijgen van de e-mails die zijn verzonden met behulp van een ander softwareplatform genaamd Speak4. (Speak4 weigerde te praten; in a San Francisco-kroniek artikelzei de klant van het bedrijf, de Bay Area Council, dat noch Speak4 noch Speak4 brieven zonder toestemming hebben ingediend.)
Van de zeven mensen met wie Plummer sprak, zeiden ze alle zeven dat ze niet op de hoogte waren van de e-mail. “Sommigen zeiden zelfs dat ze niet wisten wat het Bay Area Air District was”, zegt hij. “Een vrouw met wie ik sprak, zei: ‘Waarom zou ik me ooit verzetten tegen regelgeving ter bescherming van schone lucht?’”
Het is erg moeilijk om achteraf te bewijzen of opmerkingen daadwerkelijk nep zijn. “Ik moest tientallen en tientallen nummers bellen waartoe ik via internetspeurwerk toegang had”, zegt Plummer. De meeste mensen wilden niet praten. ‘Als ik praat, zeg ik: ‘Hallo, mijn naam is Dylan en ik onderzoek een mogelijk geval van identiteitsdiefstal.’ En hun eerste reactie is: ‘Oh, deze man is echt een oplichter’, en ze hangen op.”
In een ander geval in North Carolina ontvingen provinciale commissarissen honderden e-mails ter ondersteuning van een nieuwe gaspijpleiding. Maar toen ze op sommige e-mails begonnen te reageren, zeiden hun kiezers dat ze die niet hadden verzonden. De massale e-mailcampagne had een averechts effect. “Als ze zo slordig zijn met hun belangenbehartigingswerk, wat zegt dat dan over onze zorgen over hun onderhoud, wat van cruciaal belang is”, aldus een commissaris. vertelde E&E News. Het bestuur stemde unaniem voor een resolutie die zorgen uitte over het project en adviseerde federale ambtenaren een vergunning te weigeren.
Williams, het bedrijf dat de pijpleiding wilde aanleggen, suggereerde dat mensen misschien vergeten waren dat ze een e-mail hadden gestuurd. CiviClick, dat de e-mails voor het bedrijf faciliteerde, zei hetzelfde over de campagne in Zuid-Californië. (Het is echter de moeite waard om op te merken dat de luchtkwaliteitsdienst kort nadat de opmerkingen waren ingediend contact opnam met vermeende commentatoren.) Clevinger suggereerde ook dat er sprake zou kunnen zijn van “opzettelijke verkeerde karakterisering of misbruik van onze hulpmiddelen” door groepen als de Sierra Club die “een gevestigd belang hebben bij het in diskrediet brengen van de authenticiteit ervan.”
Wanneer bureaus een stortvloed aan valse e-mails ontvangen, is het niet duidelijk in hoeverre dit noodzakelijkerwijs de besluitvorming beïnvloedt. “Wat er toe doet is niet de identiteit van de commentator”, zegt Steven Balla, hoogleraar politieke wetenschappen die publieke commentaren bestudeert. “Het gaat om de inhoud van de opmerking.” Agentschappen zijn belast met het in overweging nemen van de technische, juridische en economische informatie die hen tijdens het commentaarproces wordt verstrekt, zegt hij. Maar ze tellen niet op hoeveel reacties ze aan elke kant hebben gekregen, en het zijn de ideeën die er meer toe doen dan de naam van de persoon die ze heeft ingediend.
Valse of door AI gegenereerde opmerkingen “ruiken vies”, zegt hij. “Maar ik ben er nog niet van onder de indruk dat dit de manier waarop beleidsbeslissingen worden genomen totaal verandert.” In het geval van netneutraliteit, zo betoogt hij, hebben de miljoenen reacties uiteindelijk niet bepaald invloed gehad op wat de eerste regering-Trump wilde doen.
“Wat ik meer in het algemeen weet over desinformatie is dat desinformatie over het algemeen minimale gevolgen heeft voor wat mensen geloven of wat ze doen”, zegt Jonathan Brennan, directeur van het Center on Technology Policy aan de NYU. “Ik zou me veel meer zorgen maken over de secundaire effecten van een algemeen verlies aan vertrouwen – overheidsfunctionarissen zeggen: nou ja, we kunnen geen enkele publieke reactie echt vertrouwen, misschien zijn ze allemaal nep, misschien ook niet, dus we gaan ze gewoon minder gewicht geven.” Een plaatselijk schoolbestuur zou bijvoorbeeld in theorie meer kunnen luisteren naar mensen die persoonlijk commentaar komen geven, waardoor het voor anderen moeilijker wordt om hun mening te delen als ze geen tijd hebben om aanwezig te zijn.
Bureaus kunnen technologie gebruiken om digitale commentaren te sorteren en duplicaten samen te vatten, zegt Balla. Dat is anders dan de oudere massacommentaren die op ansichtkaarten verschenen. “Vroeger, in de jaren negentig, sprak ik met een bureau dat destijds misschien wel 100.000 reacties kreeg”, zegt hij. “Die waren nog steeds op papier gebaseerd. Ze hadden letterlijk wat opslagruimte in Rockville, Maryland, waar ze de stukjes papier in stapels legden. Dat was een hoop werk. Nu krijg je 100.000 reacties, en 99.000 daarvan zullen bijna identiek zijn. En dat kun je binnen enkele seconden uitzoeken. “
Maar als AI gemakkelijk een reeks unieke opmerkingen kan genereren, kan het proces moeilijker worden. Plummer van de Sierra Club suggereert dat er iets moet veranderen. “Astroturf en de oprichting van frontgroepen – een vervuilende industrie die probeert de illusie te wekken van brede steun voor een standpunt – is niets nieuws”, zegt hij. “Onze grote zorg is echter dat deze nieuwe technologieën, waarbij AI zich steeds verder verspreidt, deze tactieken op steroïden zullen zetten en ze nog verraderlijker en moeilijker uit te roeien zullen maken. En het is, naar mijn mening, een directe bedreiging voor democratische processen en besluitvorming.”
In het South Coast Air Quality Management District stemde het bestuur nipt voor het verwerpen van de voorgestelde regel die de vervuiling zou hebben teruggedrongen. Hoewel CiviClick prees zijn werk bij het beïnvloeden van de beslissing is het moeilijk te zeggen welke impact de opmerkingen hadden. Het bestuur gaf het bureau opdracht de regel terug te sturen naar een commissie voor verdere discussie. De regel kan later opnieuw worden bekeken, hoewel er geen tijdlijn is vastgesteld.
Nu vraagt de Sierra Club de procureur-generaal van Californië en de officier van justitie van LA om een fraudeonderzoek te starten. Senator Christopher Cabaldon heeft onlangs ook een nieuw wetsvoorstel ingediend, genaamd “Mensen, geen bots”, wat zou verduidelijken dat AI-tools niet als mensen kwalificeren en geen valse publieke inbreng mogen bieden.
En bij het luchtkwaliteitsagentschap in Zuid-Californië onderzoekt het personeel manieren om het indienen van reacties veiliger te maken, waaronder portalen die nieuwe manieren kunnen bieden om te verifiëren dat een inzending afkomstig is van een mens – hoewel dat een steeds moeilijkere taak is om uit te voeren. “Het handhaven van de integriteit van ons publieke proces is een topprioriteit”, zegt Yeung.


