Home Nieuws Forrester: Gen AI is een chaosagent, modellen hebben het 60% van de...

Forrester: Gen AI is een chaosagent, modellen hebben het 60% van de tijd bij het verkeerde eind

9
0
Forrester: Gen AI is een chaosagent, modellen hebben het 60% van de tijd bij het verkeerde eind

De haai van Kaken aangevallen zonder waarschuwing, en laat zien hoe een toproofdier chaos uitbuit om dodelijke, verwoestende schade aan zijn prooi toe te brengen. Nu, zegt Forrester, is gen-AI het roofdier geworden in de handen van aanvallers: Degene die nooit moe wordt of slaapt en op grote schaal uitvoert.

“In Jaws fungeert de haai als de chaosagent”, vertelde Allie Mellen, hoofdanalist van Forrester, aan de aanwezigen bij het IT-adviesbureau. Veiligheids- en risicotop 2025. “We hebben vandaag onze eigen chaos-agent… En die chaos-agent is generatieve AI.”

Mellen verstrekte een kwantitatieve, substantiële basis van onderzoeksgegevens om haar bewering te onderbouwen en illustreerde de fundamentele zwakheden en onbetrouwbaarheid van AI-systemen. Zoals ze het nadrukkelijk verwoordde: “AI is verkeerd. Het is niet slechts een klein beetje verkeerd; het is vaak verkeerd.”

Modellen falen in 60% van de gevallen

Van de vele onderzoeken die Mellen in haar keynote aanhaalde, is er één van de meest vernietigende op gebaseerd onderzoek uitgevoerd door het Tow Center for Digital Journalism aan de Columbia Universitydat acht verschillende AI-modellen analyseerde, waaronder ChatGPT en Gemini.

De onderzoekers ontdekten dat de modellen in totaal 60% van de tijd fout zaten; hun gecombineerde prestaties leidden tot meer mislukte zoekopdrachten dan nauwkeurige zoekopdrachten.

AI-agenten falen vaak bij taken in de echte wereld

Jeff Pollard, VP, hoofdanalist bij Forrester, maakte dit ook duidelijk. “Je rode teamer is nu je AI rode team-orkestrator”, zei hij. “Traditionele pentesting zoekt naar tekortkomingen in de infrastructuur. AI red teaming werkt anders. Het simuleert vijandige aanvallen op het AI-model zelf.”

Pollard citeerde ook verschillende onderzoeken, waarvan een van de meest opmerkelijke afkomstig was Carnegie Mellon-onderzoekers die ontdekte dat AI-agenten 70 tot 90% van de tijd falen bij echte bedrijfstaken.

Bijna de helft (45%) van door AI gegenereerde code bevat bekende OWASP Top 10 kwetsbaarheden. Het verergeren van de risico’s van gen-AI als chaosagent is hoe alomtegenwoordig schaduw-AI is 88% van de beveiligingsleiders geeft toe dat zij ongeautoriseerde AI in hun dagelijkse workflows hebben opgenomen.

Forrester’s voorspelling dat er een Markt voor identiteitsbeheer met een waarde van 27 miljard dollar tegen 2029 geeft aan hoe alomtegenwoordig gen-AI zal worden in elke identiteit die een organisatie moet beschermen, van door mensen tot door machines gecreëerde identiteiten. De inherente risico’s van generatie AI zijn de chaos die niemand op het gebied van cyberbeveiliging ziet aankomen.

Mellen illustreerde de inzet met een concreet voorbeeld: “AI weet niet noodzakelijkerwijs dat haaien niet op het land leven”, legde ze uit, verwijzend naar een door AI gegenereerde kaart waarop haaienaanvallen werden geplaatst in Wyoming, een geheel door land omgeven staat op 1600 kilometer van de oceaan. “Het is allemaal prima en aardig dat AI het bij het verkeerde eind heeft als we alleen maar een kaart over haaienaanvallen maken, maar het is iets heel anders als het fout gaat tijdens een veiligheidsincident. AI biedt ons een nieuw soort false positive, dit keer voor onderzoek en reactie.”

AI plaatste vol vertrouwen haaienaanvallen in Wyoming, 1600 kilometer van de oceaan. LLM’s falen niet stilletjes. Ze hallucineren met absolute zekerheid en worden vervolgens naar productie verzonden. Bron: Security & Risk Summit 2025.

Wanneer 70-90% onvolledigheid en productiesnelheid samenkomen

Pollard citeerde AgentCompany-benchmark van Carnegie Mellonwaarin toonaangevende AI-modellen werden getest aan de hand van 175 echte bedrijfstaken. Claude 3.5 Sonnet, GPT-4 en gespecialiseerde bedrijfsagenten vertoonden allemaal systemische patronen van falen. Toppresteerders voerden slechts 24% van de taken autonoom uit.

Toen onderzoekers meer complexiteit toevoegden, steeg het faalpercentage tot tussen de 70 en 90%. Pollard leidde ook het AI Research-team van Salesforce even vernietigende resultaten gepubliceerd. CRM-georiënteerde agenten faalden in 62% van de standaard bedrijfstaken. Toen onderzoekers vertrouwelijkheid en veiligheidsrails toepasten, daalde de nauwkeurigheid met de helft, waardoor de faalpercentages boven de 90% kwamen. Salesforce heeft deze bevindingen gedetailleerd beschreven op De agent AI-sessie van Dreamforce 2024.

Veracode’s GenAI Code-beveiligingsrapport 2025 testte 80 codeertaken in vier talen (Java, Python, C, JavaScript) en meer dan 100 LLM’s. De resultaten zijn grimmig: 45% van de door AI gegenereerde code wordt geïntroduceerd OWASP Top 10 kwetsbaarheden. Taalspecifieke prestaties variëren aanzienlijk. Java liet de slechtste resultaten zien met een beveiligingspercentage van 28,5%, terwijl Python (55,3%), C (57,3%) en JavaScript (61,7%) beter presteerden. Cross-site scripting en log-injectie bleken catastrofaal; slechts 12 tot 13% beveiligingspercentages. SQL-injectie en cryptografische algoritmen scoorden hoger, met 80 tot 86%.

Een belangrijk inzicht uit het onderzoek is hoe de beveiligingsprestaties vlak bleven ondanks dramatische syntactische verbeteringen. Nieuwere, grotere modellen genereren beter compileerbare code, maar introduceren kwetsbaarheden. Deze bevindingen weerspiegelen de impact van trainingsgegevens op de codeerkwaliteit en betrouwbaarheid.

Beveiligingspercentages per taal. Bron: Veracode’s GenAI Code Security Report 2025

Elke nieuwe identiteit creëert een nieuw aanvalsoppervlak

Identiteiten zijn het eerste en favoriete doelwit van aanvallers, en het vermenigvuldigende effect van AI vergroot het risico exponentieel. Merritt Maxim, VP en onderzoeksdirecteur bij Forrester, gaf een botte reality check: “Identiteitsbeveiliging ondergaat de meest significante verandering sinds SSO mainstream werd. Het gaat niet meer om innovatie; het gaat om het falen van de beheersing.”

Maxim legde verder uit: “Rechten zijn niet meer statisch. We zijn op weg naar nulrechten; rechten zijn nu dynamisch en worden net op tijd toegekend.”

De OAuth-tokenschending van augustus 2025, die meer dan 700 Salesforce-klanten trof, leverde onmiskenbaar bewijs. Geoff Cairns, hoofdanalist van Forrrester, onderstreepte de ernst: “OAuth-tokens, API-sleutels, certificaten… dit zijn geen configuratieartefacten. Het zijn hoogwaardige identiteiten. En als je ze niet beheert, verlies je de onderneming.”

Nu de generatie AI de identiteitsgroei vergroot, stort het traditionele bestuur met machinesnelheden ineen. Forrester ziet de vraag naar de Identity Access Management (IAM)-markt groeien 27,5 miljard dollar in 2029. De top tien inzichten op het gebied van identiteitsbeveiliging weerspiegelen machine-identiteiten, waardoor een grotere complexiteit en potentiële chaos ontstaat waar elke beveiligingsprofessional nu rekening mee moet houden.

Bron: Security & Risk Summit 2025.

Weaponized gen AI is het toproofdier dat bedrijfsnetwerken stalkt

De Security and Risk Summit van Forrester in 2025 bracht niet alleen de bedreigingen onder de aandacht; het leverde een overlevingsblauwdruk op.

De bewapende generatie AI is het toproofdier binnen bedrijfsnetwerken geworden en beweegt zich stil, meedogenloos en op ongekende schaal.

VentureBeat is van mening dat de volgende essentiële stappen zijn die professionals op het gebied van beveiliging en risicobeheer moeten nemen nu generatie AI een steeds wijdverbreidere bedreiging wordt:

  1. Behandel AI-agenten als missiekritieke identiteiten en besef dat het hebben van een duidelijke lijn over het beheer van deze nieuwe identiteitsklasse van cruciaal belang is in alle geledingen van het bedrijf. Forrester VP en hoofdanalist Andras Cser benadrukte expliciet dat “AI-agenten zich ergens tussen machines en menselijke identiteiten bevinden; hoog volume, hoge autonomie, hoge impact. Oudere IAM-tools kunnen ze niet effectief besturen.” Gespecialiseerde governanceplatforms zijn essentieel, omdat ze realtime zichtbaarheid, adaptieve monitoring en dynamische autorisatie kunnen bieden, specifiek voor de identiteit van AI-agenten.

  2. Geef hoge prioriteit aan het ontwikkelen en uitbreiden van de capaciteiten van het AI-redteam. Pollard waarschuwde: ‘Fouten in de infrastructuur zijn belangrijk, maar tekortkomingen in het AI-model zijn wat je zal breken. Traditionele pentesting is achterhaald. Rode AI-teams moeten AI-specifieke kwetsbaarheden proactief detecteren en beperken, waaronder snelle injectie, misbruik van vooringenomenheid, modelinversie en trapsgewijze fouten van autonome agenten.

  3. Opereren onder de expliciete veronderstelling dat AI faalt. Forrester wilde een nadrukkelijke boodschap overbrengen van hoe onbetrouwbaar gen-AI is. Ze zijn erin geslaagd. De keynote van Mellen maakte dat punt duidelijk. AI ‘levert ons nieuwe valse positieven op, vooral tijdens onderzoeken en reacties’, merkte Mellen op. Met bewezen faalpercentages van rond de 60% moeten organisaties opereren in de expliciete veronderstelling dat AI-systemen regelmatig zullen falen.

  4. Ontwerp en implementeer beveiligingsmaatregelen zodat deze snel kunnen worden aangepast aan de machinesnelheid. Maxim verklaarde: “Rechten zijn niet meer statisch. We zijn op weg naar nulrechten; rechten zijn nu dynamisch en worden net op tijd toegekend.” Traditionele, op mensen afgestemde besturing is ontoereikend tegen de snelheid van generatie AI.

  5. Elimineer meedogenloos het blinde vertrouwen in automatisering en elke bestaande infrastructuur die gebaseerd is op verondersteld vertrouwen. De AgentCompany-benchmark van Carnegie Mellon onthulde expliciet catastrofale uitvalpercentages voor AI-agenten (70-90%) onder topmodellen. In een van de sterkste uitspraken van het evenement waarschuwde Pollard uitdrukkelijk: “Vangrails maken agenten niet veilig; ze zorgen ervoor dat ze stilletjes falen.” Organisaties moeten geautomatiseerde systemen voortdurend zonder compromissen verifiëren, auditen en uitdagen. Blind vertrouwen in automatisering is een ramp die nog kan gebeuren, en het aannemen van vertrouwensrelaties met oudere systemen is net zo slecht. Beide zijn potentiële inbreuken die wachten tot een aanvaller de zwakte ontdekt en misbruikt.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in