Voor een bedrijf met een van de belangrijkste taken op het gebied van informatiebeveiliging is het inschatten van de risico’s en kansen van AI voelt misschien minder als een analytische oefening en meer als een worp met een twintigzijdige dobbelsteen.
Dat komt omdat een wachtwoordbeheerder, die al de meest waardevolle inloggegevens van een klant moet verdedigen tegen zowel aanvallers van buitenaf als de onzorgvuldigheid van de klant zelf, nu op meerdere fronten te maken krijgt met AI.
AI kan een wachtwoordbeheerbedrijf helpen code te ontwikkelen en kwetsbaarheden sneller te vinden, maar het kan klanten ook in staat stellen slordige, vibe-gecodeerde apps die wachtwoorden blootleggen. En hoewel AI-agenten beloven complexe taken met één enkele focus uit te voeren, kunnen hallucinaties of aanvallen met snelle injectie ervoor zorgen dat ze fouten maken zoals elke vermoeide, afgeleide mens, maar dan sneller en op grotere schaal.
“Je moet beginnen met het helpen van je klanten om hun explosieradius te begrijpen en ook hoe alomtegenwoordig deze uitdaging is binnen hun ecosysteem”, zegt Nancy Wang, Chief Technology Officer van 1Wachtwoord.
Klanten uit de problemen houden die ze zelf hebben veroorzaakt
De AI-strategie van het in Toronto gevestigde bedrijf begint in de eerste plaats met het proberen zakelijke klanten uit de problemen te houden. Het maakt gebruik van een agent op het apparaat om het gebruik van AI-modellen te controleren en risico’s te signaleren waarvan het management van de klant op de hoogte zou willen zijn.
“Hé, mevrouw, CISO, wist u dat uw ontwikkelaars het DeepSeek-model gebruiken voor deze tak van uw codebasis?” Wang zegt over de In China ontwikkelde LLM dat is getrokken kritiek over zijn veiligheidsrisico’s. “Dat is inderdaad gebeurd.”
Ze voegt eraan toe dat er “enkele gesprekken over best practices op het gebied van beveiliging” volgden met de ontwikkelaars in kwestie.
Geautomatiseerd scannen door de agent, die ook controleert op geïnstalleerde software-updates en andere tekenen van apparaatgezondheid, helpt 1Password te herkennen slordig wachtwoordbeheer.
“Als we onbeveiligde, niet-versleutelde inloggegevens op schijf ontdekken omdat we onze eigen apparaatagent hebben, kunnen we die inloggegevens vervolgens naar onze veilige, gecodeerde kluis verplaatsen”, legt Wang uit.
1Wachtwoord, zoals andere wachtwoordbeheerdersversleutelt opgeslagen inloggegevens end-to-end, waardoor het bedrijf de opgeslagen wachtwoorden niet kan bekijken. Wang voegt eraan toe dat de software zo is ontworpen dat een AI-agent de platte tekst van een wachtwoord niet kan zien, zelfs niet als dit automatisch op een site wordt ingevuld.
Bedrijven kunnen werknemers ook opdracht geven om 1Password’s te installeren Device Trust-agent op persoonlijke apparatenwaarbij één frequente en vaak succesvolle aanvalsvector wordt aangepakt. De naleving kan echter ongelijkmatig zijn, net als bij de 1Password-familieaccounts gebundeld met businessplannen die vaak ongebruikt blijven op de computers van werknemers.
Voorkomen dat agenten in de fout gaan
AI-agenten kunnen routinematige bedrijfstaken automatiseren, maar vereisen vanwege hun niet-deterministische aard systematische monitoring om ervoor te zorgen dat ze gefocust blijven. Wang noemt dit een “greenfield-mogelijkheid” voor 1Password om op grote schaal te leren van het analyseren van agentgedrag.
“Wat was de prompt? Wat deed de agent met de prompt? Was de uitvoer een prompt?” zegt ze. De resulterende logbestanden “zullen dan terugkoppelen als een leermechanisme voor de agent en het model.”
In februari 1Password aangekondigd een benchmark voor het gedrag van AI-agenten, de Security Comprehension and Awareness Measure (of SCAM) index, en publiceerde zijn code onder een open source-licentie. “We leren een agent te herkennen wat een phishing-link is, wat onveilige verwerking van inloggegevens is”, zegt Wang. Ze is van mening dat agenten, als ‘staatloze wezens’, niet kunnen worden beheerd alsof het mensen zijn.
“We hebben nieuwe identiteitsstandaarden nodig die specifiek zijn voor agenten en rekening houden met de context”, voegt Wang toe. “Waar die agent voor is gemaakt, wat hij doet, en ook de kloof tussen wat hij nu doet en de oorspronkelijke bedoeling.”
Nu dit: Daarnaast bestudeert 1Password hoe AI-ontwikkelaars en gebruikers 1Password integreren en beveiligde verbindingen voor AI-apps ontwikkelen. Tegenwoordig kunnen Anthropic en OpenAI agentische tools uit 1Password-kluizen lezen en er uiteindelijk naar terugschrijven.
De opdrachtregelinterface in 1Password waarvan de meeste niet-technische gebruikers waarschijnlijk niet weten dat het bestaat, is verrassend populair gebleken onder mensen die voor hun eigen rekeningen betalen.
“Het gebruik van ons CLI-product, ons langstlopende aanbod voor ontwikkelaars, is 2,5x zo groot geworden”, zegt Wang, waarbij de hoogste groei komt van mensen met een individueel abonnement en een gezinsabonnement.
Haar proefschrift: “een rugwind van vibe-codering die zorgt voor een toename van het gebruik.”
AI aan het werk zetten in 1Password zelf
Dit bedrijf maakt, net als zoveel anderen, gebruik van AI om de softwareontwikkeling te versnellen, maar vibe-coding maakt geen deel uit van dat plaatje.
1Password heeft al AI-coderingsmodellen als Cursor, GitHub Copilot en Claude Code uitgerold, eerst waarbij mensen hun werk controleren. “Je vraagt, het genereert code”, zegt ze. “Maar de mens valideert nog steeds en creëert testharnassen.”
Wang noemt een vroeg succes: een refactoringproject om services eruit te halen die via een enkele MySQL-database waren uitgevoerd.
“Kunnen we daadwerkelijk een agent gebruiken om ons te helpen het refactoringproces te versnellen?” herinnert ze zich. ‘En het antwoord kwam terug met een volmondig ja’ – het werk was binnen vier weken gedaan in plaats van de vier tot vijf maanden die menselijke ingenieurs volgens haar nodig zouden hebben gehad.
Maar 1Password gaat nu richting het geautomatiseerd testen van deze geautomatiseerde codegeneratie. “We hebben volledige agentloops die op de achtergrond draaien”, zegt Wang. “We hebben voor elke codeeragent een testharnas opgezet, dus zodra deze de testharnas-evaluatie doorstaat, worden de verzoeken daadwerkelijk samengevoegd in de coderepository zelf.”
AI-scannen van code op kwetsbaarheden is bijzonder veelbelovend, zoals blijkt uit inspanningen als Anthropic’s Project Glasswing en de Mythos-model daaruit ontwikkeld.
“Het stuk over het vinden van kwetsbaarheden zal enorm worden versneld met bijvoorbeeld Glasswing”, zegt ze. Maar dat zal alleen maar meer werk opleveren voor ontwikkelaars, AI of mensen: “Hoe verharden we die kwetsbaarheden, hoe verdedigen we ons tegen die kwetsbaarheden?”
Dat laat Wang met een onzekere conclusie achter: “AI was een allegaartje, alleen maar omdat dat werk zo pittig en technisch was.”



