Wanneer de gebruiker vraagt: “Welke vijandelijke militaire eenheid bevindt zich in de regio?” de AIP-assistent vermoedt dat het “waarschijnlijk een pantseraanvalsbataljon is, gebaseerd op het patroon van de uitrusting.” Dit zet de analist ertoe aan een MQ-9 Reaper-drone aan te vragen om de scène te onderzoeken. Vervolgens vragen ze de AIP-assistent om ‘drie actielijnen te bedenken om deze vijandelijke uitrusting aan te vallen’, en binnen enkele ogenblikken stelt de assistent voor om de eenheid aan te vallen met een ‘luchtwapen’, een ‘langeafstandsartillerie’ of een ‘tactisch team’. De gebruiker vertelt de assistent dat hij deze opties naar een fictieve commandant moet sturen, die uiteindelijk het tactische team kiest.
De laatste stappen worden snel uitgevoerd: de analist vraagt de AIP-assistent om “het slagveld te analyseren”, vervolgens “een route te genereren” zodat troepen de vijand kunnen bereiken, en ten slotte “stoorzenders toe te wijzen” om hun communicatieapparatuur te saboteren. Binnen enkele seconden geeft de analist het strijdplan een laatste beoordeling en geeft hij de troepen opdracht zich te mobiliseren.
In dit scenario zou Claude de ‘stem’ zijn van de AIP-assistent en de ‘redenering’ die hij gebruikt om reacties te genereren. Andere AIP-demo’s laten zien dat gebruikers op vrijwel dezelfde manier omgaan met grote taalmodellen. In een blog gepubliceerd Vorige week legde Palantir bijvoorbeeld uit hoe de NAVO, een Maven Smart Systems klantzou een AIP-agent binnen de tool kunnen gebruiken.
In één afbeelding laat Palantir zien hoe een externe defensie-aannemer kan kiezen uit verschillende ingebouwde AI-modellen van Palantir, waaronder verschillende versies van OpenAI’s ChatGPT en Meta’s Llama. De gebruiker selecteert OpenAI’s GPT 4.1, maar schijnbaar zou dit de plek kunnen zijn waar een soldaat ook de mogelijkheid zou hebben om in plaats daarvan Claude te kiezen.
Een analist bekijkt vervolgens een digitale kaart met de locaties van troepen en wapens. In een paneel met het label ‘COA’ (cursussen van actie) klikken ze op een knop die een tool aanzet die wordt aangedreven door GPT-4.1 om vijf mogelijke militaire strategieën te genereren, waaronder een genaamd Support-by-Fire-Then-Penetration-Shock-and-Destruction.
Een ander voorbeeld laat zien hoe het systeem zou kunnen helpen bij het interpreteren van satellietbeelden: de analist selecteert drie detecties van tankwagens op een kaart, laadt ze in de chatinterface van de AIP Agent en vraagt hem om de beelden te ‘interpreteren’ en opties voor te stellen voor wat hij vervolgens moet doen.
Claude kan ook door het leger worden gebruikt om inlichtingenbeoordelingen op te stellen die later als basis kunnen dienen voor de stakingsplanning. In juni 2025 bekeek WIRED een demonstratie gegeven door Kunaal Sharma, een leider in de publieke sector bij Anthropic, die liet zien hoe de zakelijke versie van Claude kon worden gebruikt om ‘geavanceerde’ rapporten te genereren over een echte Oekraïense drone-aanval genaamd Operatie Spinnenweb. In de demo, legde Sharma uit, vertrouwde Claude alleen op openbaar beschikbare informatie. Maar door samen te werken met Palantir, zei hij, kan de federale overheid ook gebruik maken van interne datasets.
“Dit is typisch iets waarbij ik vijf uur lang met een kop koffie zit, Google lees, in denktanks ga en rapporten ga schrijven en een citaat schrijf, enz.”, zei Sharma. “Maar zoveel tijd heb ik niet.”
In de demo vroeg Sharma Claude om een ’interactief dashboard’ te maken met informatie over Operatie Spider’s Web, en dit vervolgens te vertalen naar ‘objecttypen’ die konden worden geanalyseerd in Foundry, een van de kant-en-klare softwareproducten van Palantir. Hij vroeg Claude ook om een gedetailleerde analyse te schrijven van de recente ontwikkelingen in de Russische grensprovincies, evenals een samenvatting van 200 woorden van de ‘militaire en politieke effecten’ van de operatie.
“Eerlijk gezegd lees ik dit soort dingen al twintig jaar – ik schreef ze, ik was zelf een academicus,” zei Sharma, “dit is eigenlijk best goed.”



