Home Nieuws Legacy IAM is gebouwd voor mensen – en AI-agenten zijn nu 82...

Legacy IAM is gebouwd voor mensen – en AI-agenten zijn nu 82 tegen 1 in aantal

7
0
Legacy IAM is gebouwd voor mensen – en AI-agenten zijn nu 82 tegen 1 in aantal

Active Directory, LDAP en vroege PAM zijn gebouwd voor mensen. AI-agenten en machines waren de uitzondering. Tegenwoordig zijn er meer mensen dan 82 tegen 1, en dat ‘mens-eerst’-identiteitsmodel stort met machinesnelheid ineen.

AI-agenten vormen de snelst groeiende en minst gecontroleerde klasse van deze machine-identiteiten – en ze authenticeren niet alleen, ze handelen ook. ServiceNow heeft alleen al in 2025 ongeveer 11,6 miljard dollar uitgegeven aan beveiligingsaankopen – een signaal dat identiteit, en niet modellen, het controlevlak wordt voor de AI-risico’s van ondernemingen.

CyberArk’s onderzoek uit 2025 bevestigt wat beveiligingsteams en AI-bouwers al lang vermoedden: het aantal machine-identiteiten overtreft nu ruimschoots het aantal mensen. Microsoft Copilot Studio-gebruikers creëerden in één kwartaal meer dan 1 miljoen AI-agents, een stijging van 130% ten opzichte van de voorgaande periode. Gartner voorspelt dat tegen 2028 25% van de inbreuken op ondernemingen terug te voeren zal zijn op misbruik van AI-agenten.

Waarom oudere architecturen falen op machineschaal

Bouwers maken geen schaduwagenten of serviceaccounts met te veel machtigingen uit nalatigheid. Ze doen dit omdat IAM in de cloud traag is, beveiligingsbeoordelingen niet goed aansluiten bij de workflows van agenten en omdat productiedruk snelheid boven precisie beloont. Statische referenties worden de weg van de minste weerstand – totdat ze de bresvector worden.

Gartner-analisten leggen het kernprobleem uit in een rapport gepubliceerd in mei: “Traditionele IAM-benaderingen, ontworpen voor menselijke gebruikers, schieten tekort in het aanpakken van de unieke vereisten van machines, zoals apparaten en werklasten.”

Hun onderzoek identificeert waarom retrofitting mislukt: “Het retrofitten van menselijke IAM-benaderingen om te passen bij machine-IAM-gebruiksscenario’s leidt tot een gefragmenteerd en ineffectief beheer van machine-identiteiten, waardoor regelgevingsmandaten in gevaar komen en de organisatie wordt blootgesteld aan onnodige risico’s.”

De bestuurskloof is groot. CyberArk’s identiteitsbeveiligingslandschap voor 2025 Uit een onderzoek onder 2.600 besluitvormers op het gebied van de beveiliging blijkt dat er sprake is van een gevaarlijke kloof: hoewel het aantal machine-identiteiten nu 82 tegen 1 groter is dan dat van mensen, definieert 88% van de organisaties nog steeds uitsluitend menselijke identiteiten als ‘bevoorrechte gebruikers’. Het resultaat is dat machine-identiteiten feitelijk een hogere mate van gevoelige toegang hebben dan mensen.

Dat cijfer van 42% vertegenwoordigt miljoenen API-sleutels, serviceaccounts en geautomatiseerde processen met toegang tot kroonjuwelen, allemaal beheerst door beleid dat is ontworpen voor werknemers die in- en uitklokken.

De zichtbaarheidskloof verergert het probleem. A Gartner-enquête van de 335 IAM-leiders ontdekte dat IAM-teams slechts verantwoordelijk zijn voor 44% van de machine-identiteiten van een organisatie, wat betekent dat de meerderheid buiten de zichtbaarheid van de beveiliging opereert. Zonder een samenhangende machine-IAM-strategie, waarschuwt Gartner, “lopen organisaties het risico de veiligheid en integriteit van hun IT-infrastructuur in gevaar te brengen.”

De Gartner Leidersgids legt uit waarom oudere serviceaccounts systeemrisico’s met zich meebrengen: ze blijven bestaan ​​nadat de werklast die ze ondersteunen is verdwenen, waardoor verweesde inloggegevens achterblijven zonder duidelijke eigenaar of levenscyclus.

Bij verschillende bedrijfsinbreuken die in 2024 zijn onderzocht, hebben aanvallers geen modellen of eindpunten gecompromitteerd. Ze hergebruikten langlevende API-sleutels die gekoppeld waren aan verlaten automatiseringsworkflows; sleutels waarvan niemand besefte dat ze nog steeds actief waren omdat de agent die ze had gemaakt niet meer bestond.

Elia ZaitsevCrowdStrike’s CTO legde uit waarom aanvallers zijn verschoven van eindpunten naar identiteit in een recent VentureBeat-interview: “Cloud-, identiteits- en beheertools op afstand en legitieme inloggegevens zijn waar de tegenstander naartoe beweegt, omdat het te moeilijk is om onbeperkt op het eindpunt te opereren. Waarom proberen een geavanceerd platform als CrowdStrike op het eindpunt te omzeilen en ermee om te gaan als je zou kunnen inloggen als een admin-gebruiker?”

Waarom agentische AI ​​identiteitsaannames doorbreekt

De opkomst van AI-agents die hun eigen inloggegevens nodig hebben, introduceert een categorie machine-identiteit waar oudere systemen nooit op hadden gerekend of waarvoor ze nooit waren ontworpen. Gartners onderzoekers noemen agentische AI ​​specifiek als een kritische use case: “AI-agenten hebben inloggegevens nodig om met andere systemen te kunnen communiceren. In sommige gevallen gebruiken ze gedelegeerde menselijke inloggegevens, terwijl ze in andere gevallen met hun eigen inloggegevens werken. Deze inloggegevens moeten nauwgezet worden afgestemd om te voldoen aan het principe van de minste privileges.”

De onderzoekers noemen ook het Model Context Protocol (MCP) als voorbeeld van deze uitdaging, hetzelfde protocol veiligheidsonderzoekers hebben dit gemeld vanwege het gebrek aan ingebouwde authenticatie. MCP mist niet alleen authenticatie; het laat traditionele identiteitsgrenzen vallen door agenten in staat te stellen gegevens en tools te doorkruisen zonder een stabiel, controleerbaar identiteitsoppervlak.

Het governanceprobleem wordt groter wanneer organisaties meerdere GenAI-tools tegelijkertijd inzetten. Beveiligingsteams hebben inzicht nodig in welke AI-integraties actiemogelijkheden hebben, inclusief de mogelijkheid om taken uit te voeren, niet alleen tekst te genereren, en of deze mogelijkheden op de juiste manier zijn benut.

Platformen die identiteit, eindpunt en cloudtelemetrie verenigen, komen naar voren als de enige haalbare manier om agentmisbruik in realtime te detecteren. Gefragmenteerde puntgereedschappen kunnen de zijwaartse beweging op machinesnelheid eenvoudigweg niet bijhouden.

Machine-tot-machine-interacties vinden al plaats op een schaal en snelheid waar modellen voor menselijk bestuur nooit voor ontworpen zijn.

Vooruitlopen op dynamische service-identiteitsverschuivingen

Het onderzoek van Gartner wijst op dynamische service-identiteiten als de weg voorwaarts. Ze worden gedefinieerd als kortstondige, strak gedefinieerde, beleidsgestuurde referenties die het aanvalsoppervlak drastisch verkleinen. Om deze reden adviseert Gartner dat beveiligingsleiders “overstappen op een dynamisch service-identiteitsmodel, in plaats van standaard over te gaan op een verouderd service-accountmodel. Voor dynamische service-identiteiten is het niet nodig dat er afzonderlijke accounts worden aangemaakt, waardoor de beheeroverhead en het aanvalsoppervlak worden verminderd.”

Het uiteindelijke doel is het bereiken van just-in-time toegang en zero-standing privileges. Platformen die identiteits-, eindpunt- en cloudtelemetrie verenigen, zijn steeds vaker de enige haalbare manier om misbruik van agenten in de volledige keten van identiteitsaanvallen te detecteren en te beperken.

Praktische stappen die beveiligings- en AI-bouwers vandaag kunnen nemen

De organisaties die de identiteit van agenten goed krijgen, behandelen het als een samenwerkingsprobleem tussen beveiligingsteams en AI-bouwers. Op basis van Gartner’s Leaders’ Guide, OpenID Foundation-richtlijnen en best practices van leveranciers komen deze prioriteiten naar voren voor bedrijven die AI-agents inzetten.

  • Voer eerst een uitgebreide ontdekking en audit uit van elk account en inloggegevens. Het is een goed idee om eerst een basislijn op te stellen om te zien hoeveel accounts en inloggegevens er op alle computers in de IT worden gebruikt. CISO’s en beveiligingsleiders vertellen VentureBeat dat hier vaak zes tot tien keer meer identiteiten aan het licht komen dan het beveiligingsteam vóór de audit wist. Eén hotelketen ontdekte dat zij vóór de audit slechts een tiende van de machine-identiteiten hadden bijgehouden.

  • Bouw en beheer de voorraad van agenten vóór de productie. Door hier bovenop te zitten, weten AI-bouwers wat ze inzetten en weten beveiligingsteams wat ze moeten volgen. Als er een te grote kloof bestaat tussen deze functies, kunnen er gemakkelijker schaduwagenten worden gecreëerd, waardoor het bestuur wordt omzeild. Een gedeeld register moet het eigendom, de machtigingen, de gegevenstoegang en de API-verbindingen voor elke agentidentiteit bijhouden voordat agenten de productieomgeving bereiken.

  • Ga all-in voor dynamische service-identiteiten en blink daarin uit. Overgang van statische serviceaccounts naar cloud-native alternatieven zoals AWS IAM-rollen, door Azure beheerde identiteiten of Kubernetes-serviceaccounts. Deze identiteiten zijn kortstondig en moeten strak worden afgebakend, beheerd en door beleid worden gestuurd. Het doel is om uit te blinken in naleving en tegelijkertijd AI-bouwers de identiteit te bieden die ze nodig hebben om apps te laten bouwen.

  • Implementeer just-in-time-referenties via statische geheimen. Het integreren van just-in-time referentievoorziening, automatische geheimroulatie en standaardinstellingen met de minste bevoegdheden in CI/CD-pijplijnen en agentframeworks is van cruciaal belang. Dit zijn allemaal fundamentele elementen van zero trust die de kern moeten vormen van devops-pijplijnen. Volg het advies van doorgewinterde beveiligingsleiders die AI-bouwers verdedigen, die VentureBeat vaak vertellen om het advies door te geven om perimeterbeveiliging nooit toe te vertrouwen aan AI-ontwikkelworkflows of CI/CD-processen. Ga groot in op zero trust en identiteitsbeveiliging als het gaat om het beschermen van de workflows van AI-bouwers.

  • Breng controleerbare delegatieketens tot stand. Wanneer agenten subagenten voortbrengen of externe API’s aanroepen, worden autorisatieketens moeilijk te volgen. Zorg ervoor dat mensen verantwoordelijk zijn voor alle diensten, inclusief AI-agenten. Bedrijven hebben gedragsbasislijnen en realtime driftdetectie nodig om verantwoording te kunnen blijven afleggen.

  • Implementeer continue monitoring. Houd, in overeenstemming met de principes van zero trust, voortdurend toezicht op elk gebruik van machinereferenties met het doelbewuste doel om uit te blinken in waarneembaarheid. Dit omvat auditing, omdat het helpt bij het detecteren van afwijkende activiteiten, zoals ongeoorloofde escalatie van bevoegdheden en laterale verplaatsing.

  • Evalueer houdingsmanagement. Beoordeel potentiële exploitatietrajecten, de omvang van de mogelijke schade (straal van de explosie) en eventuele toegang van schaduwbeheerders. Dit omvat het verwijderen van onnodige of verouderde toegang en het identificeren van verkeerde configuraties waar aanvallers misbruik van kunnen maken.

  • Begin met het afdwingen van het levenscyclusbeheer van agenten. Elke agent heeft menselijk toezicht nodig, of het nu onderdeel is van een groep agenten of in de context van een op agenten gebaseerde workflow. Wanneer AI-bouwers naar nieuwe projecten verhuizen, moeten hun agenten dezelfde offboarding-workflows activeren als vertrekkende werknemers. Verweesde agenten met permanente privileges kunnen inbreukvectoren worden.

  • Geef prioriteit aan uniforme platforms boven puntoplossingen. Gefragmenteerde tools zorgen voor gefragmenteerde zichtbaarheid. Platforms die identiteit, eindpunt- en cloudbeveiliging verenigen, geven AI-bouwers inzicht in selfservice en bieden beveiligingsteams cross-domein detectie.

Verwacht wordt dat de kloof in 2026 groter zal worden

De kloof tussen wat AI-bouwers inzetten en wat beveiligingsteams kunnen besturen, wordt steeds groter. Elke grote technologietransitie heeft helaas ook geleid tot een nieuwe generatie inbreuken op de beveiliging, die vaak hun eigen, unieke sectorbrede afrekening dwingen. Net nu de misconfiguraties van de hybride cloud, de schaduw-AI en de wildgroei van API’s veiligheidsleiders en de AI-bouwers die zij ondersteunen blijven uitdagen, zal in 2026 de kloof groter worden tussen wat kan worden ingeperkt als het gaat om machine-identiteitsaanvallen en wat moet worden verbeterd om vastberaden tegenstanders tegen te houden.

De verhouding van 82 op 1 is niet statisch. Het versnelt. Organisaties die blijven vertrouwen op IAM-architecturen waarin de mens centraal staat, aanvaarden niet alleen technische schulden; ze bouwen beveiligingsmodellen die zwakker worden met elke nieuwe agent die wordt ingezet.

Agentic AI schendt de beveiliging niet omdat het intelligent is; het schendt de beveiliging omdat het de identiteit sneller vermenigvuldigt dan het bestuur kan volgen. Het omzetten van wat voor veel organisaties een van hun meest in het oog springende zwakke punten in de beveiliging is, begint met het besef dat perimetergebaseerde, verouderde identiteitsbeveiliging geen partij is voor de intensiteit, snelheid en schaal van machine-op-machine-aanvallen die de nieuwe norm zijn en zich in 2026 zullen verspreiden.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in