Terwijl de rest van de wereld zich haast om de kracht van kunstmatige intelligentiemilitante groepen experimenteren ook met de technologie, ook al weten ze niet precies wat ze ermee moeten doen.
Voor extremistische organisaties, AI zou een kunnen zijn krachtig hulpmiddel Nationale veiligheidsexperts en spionagediensten hebben gewaarschuwd voor het werven van nieuwe leden, het produceren van realistische deepfake-beelden en het verfijnen van hun cyberaanvallen.
Iemand die vorige maand een bericht op de website van een pro-Islamitische Staatsgroep plaatste, drong er bij andere IS-aanhangers op aan om AI onderdeel te maken van hun operaties. “Een van de beste dingen van AI is hoe gemakkelijk het te gebruiken is”, schreef de gebruiker in het Engels.
“Sommige inlichtingendiensten zijn bang dat AI zal bijdragen aan de rekrutering”, vervolgde de gebruiker. ‘Dus maak hun nachtmerries werkelijkheid.’
IS, dat jaren geleden grondgebied in Irak en Syrië had veroverd, maar nu een gedecentraliseerde alliantie is van militante groepen die een gewelddadige ideologie delen, realiseerde zich jaren geleden dat sociale media een krachtig instrument zouden kunnen zijn voor rekrutering en desinformatie. Het is dus niet verrassend dat de groep AI aan het testen is, zeggen nationale veiligheidsexperts.
Voor losse, slecht gefinancierde extremistische groepen – of zelfs voor individuele slechte actoren met een internetverbinding – kan AI worden gebruikt om op grote schaal propaganda of deepfakes naar buiten te brengen, waardoor hun bereik en invloed worden vergroot.
“Voor elke tegenstander maakt AI het echt veel gemakkelijker om dingen te doen”, zegt John Laliberte, een voormalig kwetsbaarheidsonderzoeker bij de National Security Agency en nu CEO van cyberbeveiligingsbedrijf ClearVector. “Met AI kan zelfs een kleine groep die niet veel geld heeft, nog steeds impact maken.”
Hoe extremistische groeperingen experimenteren
Militante groepen begonnen AI te gebruiken zodra programma’s als ChatGPT algemeen toegankelijk werden. In de jaren daarna hebben ze steeds vaker generatieve AI-programma’s gebruikt om realistisch ogende foto’s en video’s te maken.
Wanneer deze nep-inhoud wordt gekoppeld aan algoritmen van sociale media, kan deze helpen nieuwe gelovigen te werven, vijanden te verwarren of bang te maken en propaganda te verspreiden op een schaal die nog maar een paar jaar geleden ondenkbaar was.
Dergelijke groepen verspreidden twee jaar geleden valse beelden van de oorlog tussen Israël en Hamas, waarop bebloede, achtergelaten baby’s in gebombardeerde gebouwen te zien waren. De beelden zorgden voor verontwaardiging en polarisatie, terwijl de werkelijke verschrikkingen van de oorlog aan het oog werden onttrokken. Gewelddadige groepen in het Midden-Oosten gebruikten de foto’s om nieuwe leden te werven, net als antisemitische haatgroepen in de VS en elders.
Iets soortgelijks gebeurde vorig jaar nadat bij een aanval, opgeëist door een IS-filiaal, bijna 140 mensen omkwamen op een concertlocatie in Rusland. In de dagen na de schietpartij circuleerden door AI gemaakte propagandavideo’s op grote schaal op discussieborden en sociale media, op zoek naar nieuwe rekruten.
IS heeft ook deepfake-audio-opnamen gemaakt van zijn eigen leiders die de Schrift reciteerden en AI gebruikt om berichten snel in meerdere talen te vertalen, aldus onderzoekers van SITE Intelligence Group, een bedrijf dat extremistische activiteiten volgt en het evoluerende gebruik van AI door IS heeft onderzocht.
‘Aspirationeel’ — voor nu
Dergelijke groepen lopen achter op China, Rusland of Iran en beschouwen het meer geavanceerde gebruik van AI nog steeds als ‘ambitieus’, aldus Marcus Fowler, een voormalige CIA-agent die nu CEO is bij Darktrace Federal, een cyberbeveiligingsbedrijf dat samenwerkt met de federale overheid.
Maar de risico’s zijn te groot om te negeren en zullen waarschijnlijk toenemen naarmate het gebruik van goedkope, krachtige AI toeneemt, zei hij.
Hackers maken al gebruik van synthetische audio en video voor phishing-campagnes, waarbij ze zich proberen voor te doen als een senior bedrijfs- of overheidsleider om toegang te krijgen tot gevoelige netwerken. Ze kunnen AI ook gebruiken om kwaadaardige code te schrijven of bepaalde aspecten van cyberaanvallen te automatiseren.
Zorgwekkender is de mogelijkheid dat militante groepen AI proberen te gebruiken om biologische of chemische wapens te helpen produceren, waardoor een gebrek aan technische expertise wordt gecompenseerd. Dat risico is opgenomen in de bijgewerkte Homeland Threat Assessment van het Department of Homeland Security, die eerder dit jaar werd gepubliceerd.
“ISIS kwam al vroeg op Twitter en vond manieren om sociale media in hun voordeel te gebruiken”, zei Fowler. “Ze zijn altijd op zoek naar iets wat ze aan hun arsenaal kunnen toevoegen.”
Het tegengaan van een groeiende dreiging
Wetgevers hebben verschillende voorstellen naar voren gebracht, waarin zij zeggen dat er dringend actie moet worden ondernomen.
Senator Mark Warner uit Virginia, de beste democraat in de inlichtingencommissie van de Senaat, zei bijvoorbeeld dat de VS het voor AI-ontwikkelaars gemakkelijker moeten maken om informatie te delen over hoe hun producten worden gebruikt door slechte actoren, of het nu extremisten, criminele hackers of buitenlandse spionnen zijn.
“Sinds eind 2022, met de publieke release van ChatGPT, is het duidelijk dat dezelfde fascinatie en experimenten met generatieve AI die het publiek heeft gehad, ook van toepassing zou zijn op een reeks kwaadaardige actoren”, aldus Warner.
Tijdens een recente hoorzitting over extremistische dreigingen vernamen parlementsleden dat IS en Al-Qaeda trainingsworkshops hebben gehouden om aanhangers te helpen AI te leren gebruiken.
Wetgeving die vorige maand door het Amerikaanse Huis van Afgevaardigden is aangenomen, vereist dat binnenlandse veiligheidsfunctionarissen elk jaar de AI-risico’s van dergelijke groepen beoordelen.
Het beschermen tegen kwaadwillig gebruik van AI verschilt niet van het voorbereiden op meer conventionele aanvallen, zegt vertegenwoordiger August Pfluger, R-Texas, de sponsor van het wetsvoorstel.
“Ons beleid en onze capaciteiten moeten gelijke tred houden met de dreigingen van morgen”, zei hij.
—David Klepper, Associated Press


