Generatief AI is snel een kerninfrastructuur geworden, ingebed in bedrijfssoftware, cloudplatforms en interne workflows. Maar die verschuiving dwingt ook tot een structurele heroverweging van cyberbeveiliging. Dezelfde systemen rijden productiviteit en groei komen naar voren als punten van kwetsbaarheid.
Het nieuwste van Google Cloud AI Threat Tracker-rapport suggereert dat de technologie-industrie een nieuwe fase van cyberrisico’s is ingegaan, een fase waarin AI-systemen zelf waardevolle doelwitten zijn. Onderzoekers van Google DeepMind en de Google Threat Intelligence Group hebben een gestage toename van modelextractie- of ‘distillatie’-aanvallen vastgesteld, waarbij actoren herhaaldelijk generatieve AI-systemen aansturen in een poging hun eigen mogelijkheden te kopiëren.
In sommige gevallen overspoelen aanvallers modellen met zorgvuldig ontworpen aanwijzingen om hen te dwingen te onthullen hoe ze denken en beslissingen nemen. In tegenstelling tot traditionele cyberaanvallen waarbij netwerken worden doorbroken, zijn veel van deze inspanningen afhankelijk van legitieme toegang, waardoor ze moeilijker te detecteren zijn en de cyberbeveiliging zich verplaatst naar het beschermen van intellectueel eigendom in plaats van perimeterverdediging.
Onderzoekers zeggen dat modelextractie concurrenten, statelijke actoren of academische groepen in staat zou kunnen stellen waardevolle AI-mogelijkheden te repliceren zonder waarschuwingen voor inbreuken te activeren. Voor bedrijven die grote taalmodellen bouwen, strekt de concurrentiestrijd zich nu uit tot de propriëtaire logica binnen de modellen zelf.
Uit het rapport blijkt ook dat door de staat gesteunde en financieel gemotiveerde actoren uit China, Iran, Noord-Korea en Rusland gedurende de hele aanvalscyclus AI gebruiken. Bedreigingsgroepen zetten generatieve modellen in om malware te verbeteren, doelen te onderzoeken, interne communicatie na te bootsen en overtuigender phishing-berichten te maken. Sommigen experimenteren met AI-agents om te helpen bij het ontdekken van kwetsbaarheden, het beoordelen van codes en aanvallen in meerdere stappen.
John Hultquist, hoofdanalist bij Google Threat Intelligence Group, zegt dat de implicaties verder reiken dan traditionele inbreukscenario’s. Foundation-modellen vertegenwoordigen miljarden aan verwachte bedrijfswaarde, en distillatieaanvallen kunnen tegenstanders in staat stellen belangrijke mogelijkheden te kopiëren zonder in te breken in systemen. Het resultaat, zo stelt hij, is een opkomende cyberwapenwedloop, waarbij aanvallers AI gebruiken om op machinesnelheid te opereren, terwijl verdedigers zich haasten om AI in te zetten die bedreigingen in realtime kan identificeren en erop kan reageren.
Hultquist, een voormalige inlichtingenspecialist van het Amerikaanse leger die hielp bij het ontmaskeren van de Russische dreigingsacteur die bekend staat als Sandworm en nu lesgeeft aan de Johns Hopkins University, vertelt Snel bedrijf hoe AI zowel een wapen als een doelwit is geworden, en hoe cyberbeveiliging eruit ziet in een machine-versus-machine-toekomst.
AI verschuift van slechts een hulpmiddel dat door aanvallers wordt gebruikt naar een strategische asset die de moeite waard is om te repliceren. Wat is er het afgelopen jaar veranderd waardoor deze escalatie structureel en kwalitatief verschilt van eerdere golven van AI-dreigingen?
AI is niet alleen een enabler voor bedreigingsactoren. Het is een nieuw, uniek aanvalsoppervlak en een doelwit op zichzelf. De grootste bewegingen die we in de nabije toekomst zullen zien, zijn actoren die AI in hun bestaande routines adopteren, maar naarmate we AI in de stapel opnemen, zullen zij geheel nieuwe routines ontwikkelen die zich op de nieuwe kansen richten. AI is ook een uiterst waardevol vermogen, en we kunnen verwachten dat de technologie zelf het doelwit zal zijn van staten en commerciële belangen die deze willen repliceren.
Het rapport benadrukt een toename van het aantal gerichte modelextractie- of ‘destillatie’-aanvallen eigen systemen. Hoe werken deze aanvallen?
Bij distillatieaanvallen wordt een model gebombardeerd met aanwijzingen om de mogelijkheden van een model systematisch te repliceren. In het geval van Google stuurde iemand Gemini meer dan 100.000 prompts om zijn redeneervermogen te onderzoeken, in een kennelijke poging om zijn besluitvormingsstructuur te reverse-engineeren. Zie het als wanneer je een analist traint en probeert te begrijpen hoe hij of zij tot een conclusie is gekomen. Je zou ze een hele reeks vragen kunnen stellen in een poging hun denkproces te onthullen.
Waar zien door de staat gesponsorde en financieel gemotiveerde dreigingsgroepen de meest directe operationele voordelen van AI, en hoe verandert dit de snelheid en verfijning van hun dagelijkse aanvalsworkflows?
Wij geloven dat tegenstanders de waarde van AI zien in de dagelijkse productiviteit over het volledige spectrum van hun aanvalsoperaties. Aanvallers maken steeds vaker gebruik van AI-platforms voor doelgericht onderzoek, verkenning en social engineering. Een aanvaller die zich op een bepaalde sector richt, kan bijvoorbeeld onderzoek doen naar een komende conferentie en AI gebruiken om thema’s en interessegebieden te interpreteren en onder de aandacht te brengen, die vervolgens kunnen worden geïntegreerd in phishing-e-mails voor een specifieke gerichte organisatie. Bij dit soort tegenstrijdig onderzoek zou het doorgaans veel tijd kosten om gegevens te verzamelen, inhoud te vertalen en de gelokaliseerde context voor een bepaalde regio of sector te begrijpen. Maar met behulp van AI kan een tegenstander in slechts een paar minuten uren werk verzetten.
Door de overheid gesteunde actoren uit Iran, Noord-Korea, China en Rusland integreren AI gedurende de gehele levenscyclus van inbraak. Waar levert AI vandaag de dag het grootste operationele voordeel op, en hoe versnelt het de tijdlijn van het initiële compromis tot de impact in de echte wereld?
Generatieve AI wordt al acht jaar gebruikt in social engineering, en het is geëvolueerd van het maken van nepfoto’s voor profielen naar het orkestreren van complexe interacties en het deepfaken van collega’s. Maar er zijn zoveel andere voordelen voor de tegenstander: snelheid, schaal en verfijning. Zelfs een minder ervaren hacker wordt effectiever met tools die helpen bij het oplossen van problemen, terwijl meer geavanceerde actoren sneller toegang kunnen krijgen tot zero-day-kwetsbaarheden. Met deze winst in snelheid en schaal kunnen aanvallers binnen traditionele patchcycli opereren en door mensen aangestuurde verdedigingen overweldigen. Het is ook belangrijk om de criminele impact van deze technologie niet te onderschatten. In veel toepassingen is snelheid feitelijk een probleem voor spionageactoren die heel hard werken om laag en langzaam te blijven, maar het is een grote troef voor criminelen, vooral omdat ze verwachten hun slachtoffers te waarschuwen wanneer ze ransomware lanceren of dreigen met lekken.
We beginnen al vroeg te experimenteren met agentische AI-systemen die in staat zijn campagnes in meerdere stappen te plannen en uit te voeren met beperkte menselijke tussenkomst. Hoe dicht zijn we bij werkelijk autonome tegenstanders die op grote schaal opereren, en welke vroege signalen duiden erop dat de snelheid van de dreiging toeneemt?
Bedreigingsactoren maken al gebruik van AI om schaalvoordelen te behalen. We zien dat ze AI gebruiken om verkenningsoperaties en social engineering te automatiseren. Ze gebruiken agentische oplossingen om doelen te scannen met meerdere tools en we hebben gezien dat sommige actoren het moeizame proces van het ontwikkelen van op maat gemaakte social engineering hebben verminderd. Uit ons eigen werk met tools als BigSleep weten we dat AI-agenten uiterst effectief kunnen zijn in het identificeren van softwarekwetsbaarheden en verwachten dat tegenstanders soortgelijke mogelijkheden onderzoeken.
Gaan we op strategisch niveau richting een standaard machine-versus-machine-tijdperk in cyberbeveiliging? Kan defensieve AI snel genoeg evolueren om gelijke tred te houden met offensieve capaciteiten, of is cyberveerkracht nu onlosmakelijk verbonden met de algehele AI-strategie?
We zullen zeker meer op de machines leunen dan ooit tevoren, anders lopen we het risico achterop te raken bij anderen die dat wel doen. Uiteindelijk gaat veiligheid echter over risicobeheersing, wat betekent dat er op een bepaald niveau sprake zal moeten zijn van menselijk oordeel. Ik ben bang dat aanvallers enkele voordelen kunnen hebben als het gaat om snel aanpassen. Ze zullen niet dezelfde bureaucratieën hebben die ze moeten beheren, of dezelfde risico’s lopen. Als ze een kans wagen met een nieuwe techniek en deze faalt, zal dat hen niet veel kosten. Dat geeft hen meer vrijheid om te experimenteren. We zullen hard moeten werken om ze bij te houden. Maar als we het niet proberen en zelf geen op AI gebaseerde oplossingen adopteren, zullen we zeker verliezen. Ik denk niet dat er een toekomst is voor verdedigers zonder AI; het is gewoon te impactvol om te vermijden.



