Als ervaren ingenieur en productleider binnen Microsoft Azure, Rohit Tatachar zag dat veel bedrijven AI-systemen bouwden die ze tijdens de productie niet volledig konden monitoren of controleren.
In zijn nieuwe rol bij een startup in Seattle doet hij er iets aan.
Tatachar is nu mede-oprichter en CTO van Glacisdat fraudebestendige registraties van AI-gedrag opbouwt – wat CEO Joe Braidwood een ‘flightrecorder voor zakelijke AI’ heeft genoemd. Zijn komst komt op het moment dat Glacis nieuwe open-sourcetools lanceert voor het monitoren en controleren van AI-agenten.
Glacis, eerst gedekt door GeekWire in november 2025 werd opgericht door Braidwood en Dr. Jennifer Shannon, een psychiater en adjunct-professor aan de Universiteit van Washington.
Het bedrijf is ontstaan uit een moeilijke les: de vorige startup van Braidwood, Kindereneen door AI aangedreven hulpmiddel voor de geestelijke gezondheidszorg, moest worden afgesloten nadat hij zich realiseerde dat de modellen tijdens langdurige gesprekken met kwetsbare gebruikers van hun beoogde gedrag afdwaalden.
Nadat hij op LinkedIn over de sluiting had geschreven, kwamen toezichthouders, artsen, ingenieurs en verzekeringsmanagers met dezelfde observatie: wanneer AI-systemen beslissingen nemen, kan niemand onafhankelijk verifiëren of de veiligheidscontroles daadwerkelijk hebben gewerkt.
Dat was de vonk voor Glacis.
Hoe het werkt: Het kernproduct van de startup, Arbiter genaamd, bevindt zich in het pad van elke AI-inferentieoproep en creëert een ondertekend record van de input, de uitgevoerde veiligheidscontroles en de uiteindelijke output.
Het record kan achteraf niet meer worden gewijzigd. Op grote schaal notariseert een systeem dat Glacis het Witness Network noemt, deze gegevens in een controleerbaar spoor.
Klanten kunnen ervoor kiezen om het systeem in de ‘schaduwmodus’ te laten draaien, waarbij wordt geobserveerd zonder in te grijpen, of in de handhavingsmodus, waarbij het actief het gedrag van de AI beperkt.

Shannon, de hoofdarts van Glacis, zei dat de inzet vooral hoog is in de gezondheidszorg. Als praktiserend kinderpsychiater heeft ze door AI aangedreven omgevingsschrijvers de inhoud van haar klinische aantekeningen zien hallucineren, waaronder het verzinnen van medicatievoorschriften die ze nooit heeft gemaakt.
“Ik zou graag terug willen gaan en elke stap willen zien van hoe dat AI-model tot die beslissing kwam”, zei ze. “Als daar geen infrastructuur voor is, wie is dan aansprakelijk? Niemand gaat AI aanklagen. Ik ben het.”
De onderliggende uitdaging: Tatachar werkte bijna 19 jaar lang bij Microsoft, meest recentelijk als hoofdproductmanager van het Microsoft Foundry-team, het platform voor het bouwen en implementeren van zakelijke AI-applicaties en -agents.
Hij zei dat hij zag dat bedrijven tools bouwden en proofs of concept uitvoerden, maar moeite hadden om AI in productie te brengen omdat ze niet konden uitleggen of verifiëren wat hun systemen deden.
Er zijn drie dimensies aan het probleem, zei hij: de basisstatus van de infrastructuur van een klant, het modelgedrag en wat bekend staat als ‘intent drift’, waarbij een systeem zich anders gedraagt dan wat de klant bedoelde, zelfs als het onderliggende model normaal functioneert.
Glacis bewaakt de implementaties in alle drie de systemen. “Pas als je deze drie samenvoegt, krijgt een klant een reëel beeld van wat er feitelijk is gebeurd,” zei Tatachar.
Nieuwe uitgaven: Glacis laat los auto-redteameen open source-tool die automatisch AI-systemen aanvalt in een reeks kwetsbaarheidscategorieën, vervolgens oplossingen genereert en de effectiviteit ervan verifieert.
Het bedrijf publiceert ook OVERT 1.0een standaard voor wat het ‘waarneembaar verificatiebewijs voor runtime-vertrouwen’ noemt, bedoeld om organisaties een raamwerk te bieden voor het inbouwen van aantoonbare AI-veiligheid in hun activiteiten.
De lanceringen komen op een onstabiel moment voor de beveiliging van AI-agenten. Open Klauween open-source AI-agentframework, heeft sinds zijn debuut eind 2025 honderdduizenden ontwikkelaars aangetrokken, maar de snelle acceptatie ervan heeft de beveiligingsarchitectuur voorbijgestreefd.
Grote cyberbeveiligingsbedrijven, waaronder CrowdStrike En Cisco hebben analyses gepubliceerd waarin wordt gewaarschuwd voor beveiligingsproblemen in het raamwerk. Braidwood zei dat dit de behoefte aantoont aan infrastructuur die veiligheidscontroles tijdens runtime kan afdwingen, en deze niet alleen kan testen vóór implementatie.
Doelmarkt: Het bedrijf richt zich op klanten in de zorg, fintech en verzekeringen.
Het ondertekende eerder dit jaar twee proefovereenkomsten tijdens de gezondheidszorgconferentie van JP Morgan, en er zitten er nog drie in de pijplijn. Braidwood zei dat het bedrijf de gezondheidszorg als zijn toegangspunt ziet, maar beschouwt het probleem uiteindelijk als universeel voor elke inzet van AI.
Een nieuwe ontwikkeling deze week: Glacis ook het openen van een wachtlijst voor een startersplan van $ 49 per maand dat red teaming, handhaving en cryptografische attestatie omvat voor maximaal 10.000 AI-evenementen per maand. Een pro-tier van $ 499 dekt maximaal 100.000 evenementen.
Braidwood zei dat de stap een doelbewuste verschuiving is in de richting van het toegankelijk maken van de technologie buiten de gereguleerde ondernemingen en ontwerppartners waarmee het bedrijf tot nu toe heeft samengewerkt.
Breder landschap: De waarneembaarheid en beveiliging van AI is een bloeiende markt, met goed gefinancierde startups en grote bedrijven die runtime-monitoring en vangrails voor zakelijke AI aanbieden.
Braidwood zei dat Glacis zich onderscheidt door zijn focus op cryptografische bewijsbaarheid – niet alleen door het opsporen van problemen, maar door het leveren van fraudebestendig bewijs dat veiligheidscontroles hebben plaatsgevonden, wat volgens hem bedrijven zou kunnen helpen bij het onderhandelen over verzekeringsdekking en het tevredenstellen van toezichthouders.
Financiering: Glacis heeft $ 575.000 opgehaald bij een groep investeerders, waaronder Geoff Ralston’s Safe Artificial Intelligence Fund, Mighty Capital, Sourdough Ventures en de AI2 Incubator.
Het maakt ook deel uit van het Launchpad-programma van Cloudflare en Plug and Play’s derde acceleratorcohort in Seattle. Braidwood zei dat het bedrijf later dit jaar een zaadronde hoopt af te ronden.
Team: Glacis heeft vijf medewerkers, waaronder de drie medeoprichters en twee ingenieurs.
Tatachar zei dat de zesde “werknemer” van het bedrijf een AI-agent zal zijn die belast is met het afhandelen van SOC 2-compliancewerk via Vanta. Het team schrijft de belangrijkste cryptografische code in Rust en gebruikt Claude, Codex en ChatGPT in de gehele workflow.
“We hebben een bedrijf met honderd medewerkers”, grapte Braidwood. “Vijf ervan zijn echt, en de rest bevindt zich in de cloud of op het bureau.”



