AI-agenten zijn er, en sciencefictionprofetieën over de overname van robots hebben nog nooit zo reëel gevoeld.
In 2026 worden AI-agenten – die in staat zijn om te handelen, te redeneren en complexe taken uit te voeren – niet langer alleen maar gezelschapsvolle chatbots, maar ook op grote schaal ingezet.
Maar naarmate deze autonome systemen ingebed raken in workflows, ontstaat er ook een gevoel van onbehagen over hun onvoorspelbaarheid en de risico’s die ze met zich meebrengen voor bedrijven.
Organisaties bereiden zich voor om agentische systemen bedrijfsbreed te schalen, maar klanten blijven op hun hoede voor agenten, vertelt Sam Gloede, Trusted AI-leider bij KPMG, aan Business Insider.
“Een van de grootste zorgen is waarschijnlijk: hoe zorg je ervoor dat je ze de autonomie geeft om de waardevolle dingen te doen die we nodig hebben, maar om te voorkomen dat ze wild worden of de macht overnemen.”
KPMG heeft een veelzijdig raamwerk gecreëerd om bescherming te bieden tegen worstcasescenario’s voor zowel klanten als zijn eigen medewerkers, aldus Gloede.
“Een robuuste set bedieningselementen is erg belangrijk”, zei ze. Bedrijven moeten duidelijk definiëren wat hun agenten mogen doen en ervoor zorgen dat monitoringsystemen kunnen detecteren wanneer ze deze grenzen overschrijden. Agenten mogen alleen communiceren met de systemen en gegevens die ze strikt nodig hebben, waardoor de potentiële impact van fouten wordt beperkt, aldus Gloede.
Sam Gloede, vertrouwde AI-leider bij KPMG. KPMG
Elke KPMG-agent heeft zijn eigen unieke identificatie en een systeemkaart, waardoor het bedrijf acties kan registreren en monitoren, besluitvorming kan volgen en interacties met andere agenten kan volgen, vertelde Gloede aan Business Insider. Het toezicht wordt afgehandeld via een AI-operatiecentrum dat wordt bemand door zowel agenten als menselijke monitors, voegde ze eraan toe.
Red-teaming, het uitvoeren van gesimuleerde risicoscenario’s, is een andere belangrijke stap in het stresstesten van systemen voordat er iets misgaat, aldus Gloede.
Alles bij elkaar zorgen deze maatregelen ervoor dat agenten binnen gedefinieerde grenzen opereren – zonder voortdurende handmatige tussenkomst.
“Het gaat niet om het onderzoeken van het gedrag van mensen op prestaties en afstemming”, zegt Gloede. “Het is de mogelijkheid om altijd je technologie-ecosysteem in de gaten te houden.”
Bouw een kill-schakelaar in, maar verwacht niet dat je deze gebruikt
Naast technische waarborgen blijft menselijk toezicht ‘van cruciaal belang’, zei Gloede. Als een agent van zijn beoogde rol begint af te dwalen, moet er een ‘kill-schakelaar of een terugvaloptie zijn waarmee je hem kunt uitschakelen’.
Dat klinkt misschien in strijd met de belofte van autonomie die agenten moeten waarmaken, een van de belangrijkste verkoopargumenten voor bedrijfsleiders. Maar het niveau van toezicht hangt af van het risico, zei Gloede.
Taken met een lagere inzet, zoals het boeken van vergaderruimtes of het opstellen van e-mails, kunnen worden geautomatiseerd zodra de betrouwbaarheid is bewezen. Voor scenario’s met een hoog risico, die de financiële resultaten kunnen beïnvloeden of toegang tot gevoelige gegevens vereisen, is een “mens op de hoogte” noodzakelijk, zei ze.
Als bedrijven meerdere andere controles invoeren, is het onwaarschijnlijk dat ze een kill-schakelaar moeten activeren, voegde Gloede eraan toe.
Agenten die schurkenstaten zijn, zijn een grote angst voor bedrijven
Gloede’s opmerkingen komen op een moment dat de angst voor Terminator-achtige scenario’s heel reëel is.
Eerder dit jaar bood de lancering van Moltbook, een Reddit-achtig sociaal netwerk waar AI-agenten berichten kunnen plaatsen en met elkaar kunnen communiceren, een glimp van hoe vreemd dingen kunnen worden.
Binnen enkele uren nadat de site live ging, één agent heeft een nieuwe cryptocurrency aangekondigd en zei: “De mensen kunnen kijken. Of ze kunnen meedoen. Maar ze mogen niet meer beslissen.” In andere posten hebben agenten hun bewustzijn in twijfel getrokken en religies gecreëerd.
Hoewel Moltbook aanvoelt als een internetkoortsdroom, is de inzet in de zakenwereld hoger.
Eerder deze maand droeg de AI-coderingstool van Amazon bij aan een fout die resulteerde in bijna 120.000 verloren bestellingen en 1,6 miljoen websitefouten voor de bezorggigant.
Vorige week, McKinseyeen wereldwijd adviesbureau dat bedrijven helpt AI veilig te implementeren, kreeg een gênante PR-hit toen een cyberbeveiligingsbedrijf zei dat het een AI-agent had gebruikt om Lilli, het interne AI-platform van McKinsey, te hacken. Het bedrijf positioneert zichzelf als een AI-expert en in januari zei CEO Bob Sternfels dat van zijn 60.000 werknemers: 25.000 zijn AI-agenten.
“McKinsey werd onlangs door een beveiligingsonderzoeker gewaarschuwd voor een kwetsbaarheid in onze interne AI-tool, Lilli. We hebben de kwetsbaarheid onmiddellijk bevestigd en het probleem binnen enkele uren opgelost”, vertelde een woordvoerder van McKinsey aan Business Insider.
Het onderzoek van het bedrijf, ondersteund door een extern forensisch bedrijf, vond geen bewijs dat er toegang was verkregen tot klantgegevens of vertrouwelijke informatie van klanten, voegde de woordvoerder eraan toe.
De beste bescherming tegen een malafide agent is een veelzijdige aanpak: de technische controles, menselijk toezicht en technologie om te observeren en te besturen, vertelde Gloede van KPMG aan Business Insider.
“Ik geloof echt dat als je opzettelijk te werk gaat en je agentische ecosysteem opricht met dat als basis, ik niet geloof dat er een situatie zou ontstaan waarin ze uit de hand zouden lopen”, zei ze.

