Bedrijven zijn er al jaren van uitgegaan dat internet voor mensen is gebouwd.
Websites zijn ontworpen om menselijke aandacht te trekken, uit te leggen, te overtuigen, gerust te stellen en uiteindelijk te converteren. Zoekmachineoptimalisatie, gebruikerservaring, digitale merchandising en kassa-ontwerp berustten allemaal op hetzelfde uitgangspunt: de gebruiker was een persoon die voor een scherm zat.
Dat uitgangspunt begint te barsten.
Niet omdat er mensen verdwijnen, maar omdat ze beginnen te delegeren. Steeds vaker zal het eerste systeem dat uw site leest, uw aanbod vergelijkt, uw beleid interpreteert of zelfs een aankoop initieert, geen mens zijn. Het zal een softwareagent zijn die namens iemand handelt. Dat is de richting die Anthropic aangeeft Modelcontextprotocoldoor Google Agent2Agent protocol, zijn gids voor agentprotocollen en zijn Universeel Handelsprotocoldoor OpenAI’s Exploitant En Agenten-SDKen door het groeiende werk van bedrijven zoals Visa, MasterCardEn Wolkenvlam om agentische handel betrouwbaar en operationeel op schaal te maken.
Dit is niet alleen een verhaal over betere chatbots of mooiere interfaces. Het is een verhaal over het web dat een tweede interface krijgt: een voor mensen en een voor machines.
Van pagina’s tot acties
Het oude web draaide om pagina’s. U publiceerde informatie, mensen vonden deze en klikten vervolgens door een reeks die u beheerde. Het opkomende web draait steeds meer om acties. Agenten geven niet zoveel om uw startpagina, uw visuele hiërarchie of de emotionele boog van uw trechter. Ze vinden het belangrijk of ze uw catalogus kunnen begrijpen, uw beleid kunnen verifiëren, toegang kunnen krijgen tot betrouwbare gegevens en een taak kunnen voltooien zonder onnodige wrijving.
Dat is de reden waarom de meest consequente ontwikkelingen in AI zijn steeds meer niet alleen modellen, maar ook protocollen. Anthropic beschrijft MCP als “een universele, open standaard voor het verbinden van AI-systemen met databronnen”, bedoeld om gefragmenteerde integraties te vervangen door één enkel protocol. Google’s A2A beschrijft een wereld waarin agenten capaciteiten adverteren via een ‘Agent Card’, elkaar ontdekken en samenwerken aan taken. Het eigen commerciële werk van Google gaat nog een stap verder: UCP is expliciet ontworpen om de betaallogica rechtstreeks te integreren met Google AI Mode en Gemini, waarbij ‘native checkout’ wordt beschouwd als het standaardpad voor het ontsluiten van ‘volledig agentisch potentieel’. Met andere woorden: de stapel gaat van inhoud naar uitvoering.
De volgende SEO is geen SEO
Twintig jaar lang leerden bedrijven dat zichtbaarheid afhing van de leesbaarheid voor zoekmachines. Wat nu opduikt, is veeleisender. Het is niet langer voldoende om indexeerbaar te zijn. Je moet bruikbaar worden.
Daarom zijn ideeën als llms.txt belangrijk. Zoals ik betoogde in een recent stukwebsites zijn gebouwd voor mensen, terwijl taalmodellen beter gediend zijn met een beknopt, ‘vetvrij’ toegangspunt dat de dubbelzinnigheid vermindert en de ruis van menu’s, scripts, herhaalde elementen en lay-out wegneemt. Het llms.txt-voorstel is eenvoudig: plaats een markdown-bestand op /llms.txt dat fungeert als een samengestelde kaart voor taalmodellen, die blootlegt wat belangrijk is, wat canoniek is en waar de nuttige bronnen zich bevinden. Het officiële voorstel omschrijft het als een manier om “informatie verstrekken om LLM’s te helpen een website te gebruiken tijdens de conclusie”, juist omdat contextvensters beperkt zijn en het converteren van complexe HTML naar bruikbare platte tekst vaak moeilijk en onnauwkeurig is.
Dat maakt llms.txt nog niet tot een magische ranking-hack. Dat is het niet. Het staat dichter bij de digitale huishouding voor een wereld waarin steeds meer ontdekkingen, samenvattingen en aanbevelingen worden gemedieerd door AI-systemen. Het gaat er niet om een ranking-algoritme te spelen. Het punt is om machineverwarring te verminderen. Dat onderscheid is van belang.
Dezelfde logica is van toepassing op nieuwere, meer experimentele ideeën zoals identiteit.txt. De site beschrijft het als “een draagbaar identiteitsbestand dat AI-tools vertelt wie je bent, hoe je denkt en onder welke voorwaarden”, en voegt eraan toe dat “llms.txt AI over websites vertelt. Identity.txt vertelt AI over mensen.” Of Identity.txt zelf breed geaccepteerd wordt, is bijna secundair. Waar het om gaat is de richting waarin het zich beweegt: het web begint doelbewust machinaal leesbare zelfbeschrijvingen te produceren, in plaats van het aan modellen en agenten over te laten om alles af te leiden uit luidruchtige HTML, metadatafragmenten en giswerk.
En het is onwaarschijnlijk dat dit bij deze twee voorbeelden zal stoppen. In de agentprotocolgids van Google wordt uitgelegd dat elke A2A-agent een agentkaart kan publiceren waarin de naam, mogelijkheden en het eindpunt worden beschreven. Het punt is duidelijk: systemen beginnen zichzelf op gestandaardiseerde manieren aan te kondigen aan andere systemen. Zodra die logica ingang vindt, is het gemakkelijk om je een breder ecosysteem voor te stellen van machinaal leesbare bestanden voor beleid, machtigingen, herkomst, afhandeling, prijslogica, retourzendingen en geauthenticeerde identiteit.
Merken zullen er nog steeds toe doen. Maar merken zullen niet langer voldoende zijn
Veel bedrijven beschouwen AI nog steeds als iets dat zich bovenop het web bevindt: een chatbot in de klantenservice, waarvan sommige een kopie genereren marketingeen assistent in de app. Dat beeld is te oppervlakkig.
Wat er feitelijk gebeurt, is dat er een naar de machine gerichte laag wordt toegevoegd onder het zichtbare web en, in sommige contexten, ervoor. Wanneer een gebruiker een agent vraagt om de beste zwarte blazer voor een bepaalde prijs te vinden, met snelle levering, goede retourvoorwaarden en een pasvorm die vergelijkbaar is met eerdere aankopen, begint de interactie niet met een bezoek aan de homepage. Het begint met machineinterpretatie.
Dat verandert de basis van de concurrentie. Sterke merken zullen er nog steeds toe doen, omdat vertrouwen er nog steeds toe doet. Maar vertrouwen zal steeds vaker tot uiting moeten komen in de vorm die machines kunnen verwerken: gestructureerde kenmerken, actuele inventaris, transparante retourregels, leveringsbeloften, geverifieerde identiteit van de verkoper en betalingssystemen die een legitieme agent van een kwaadwillende bot kunnen onderscheiden. Visa zegt dat het doel is om “ervoor te zorgen dat alleen goedgekeurde AI-agenten transacties uitvoeren”, terwijl Mastercard stelt dat protocollen essentieel zijn voor het opschalen van de handel tussen agenten, omdat ze een duidelijke gebruikersintentie, veilige inloggegevens en een verifieerbare agent-identiteit ondersteunen. Cloudflare heeft in samenwerking met het betalingsecosysteem hetzelfde punt duidelijker naar voren gebracht: verkopers zullen manieren nodig hebben om toegang te verlenen aan legitieme AI-agenten en tegelijkertijd frauduleus verkeer aan de voordeur te stoppen.
Wat dit betekent voor bedrijven: de casus van Inditex
Een wereldleider als Inditex maakt deze verschuiving begrijpelijker omdat deze zich precies op het snijvlak van merk, logistiek, e-commerce en schaal bevindt.
Inditex begon relatief laat met e-commerce vergeleken met digital natives, maar bouwde uiteindelijk een van de meest effectieve geïntegreerde retailsystemen op de markt. In zijn Resultaten boekjaar 2025rapporteerde het bedrijf een omzet van €39,9 miljard, een online omzet van €10,7 miljard, en benadrukte expliciet dat de integratie van winkel- en onlineactiviteiten een “naadloze wereldwijde omnichannel-ervaring” mogelijk maakt.
Dat geeft Inditex een groot voordeel in een agent-gemedieerde omgeving. Zara en de rest van de groep beschikken al over veel van de zaken die agenten waarschijnlijk zullen waarderen: sterke merkherkenning, snelle voorraadrotatie, geïntegreerde logistiek, brede geografische dekking en operationele coördinatie tussen fysieke en digitale kanalen.
Maar er is ook een risico. Mode is van oudsher afhankelijk van presentatie, ambitie, curatie en wrijving die vaak commercieel nuttig was. Agenten comprimeren dat allemaal. Ze reduceren merchandising tot een beslissingslaag waarin prijs, beschikbaarheid, vertrouwen in de maat, leverdatum, retourzendingen en vertrouwde identiteit beter zichtbaar kunnen worden dan de sfeer van de site zelf. In die wereld is de vraag niet langer “Is uw site aantrekkelijk?” Het wordt: “Kan een agent u efficiënt gebruiken?” Voor Inditex is de strategische reactie niet cosmetisch. Het is structureel.
Wat moet Inditex dan doen?
- Eerst, het zou zijn websites niet alleen moeten gaan behandelen als bestemmingen voor mensen, maar ook als gestructureerde oppervlakken voor agenten. Dat betekent rijkere, machinaal leesbare catalogi, explicietere signalen voor grootte en pasvorm, duidelijkere metagegevens voor inventaris en levering, schonere beleidsblootstelling en robuustere authenticatielagen.
- Ten tweede moet het serieus zijn experimenteer met machinegeoriënteerde beschrijvende bestanden. Een goed ontworpen llms.txt op groep- en merkniveau zou zinvol zijn, vooral om te verduidelijken wat canoniek is, hoe inhoud is georganiseerd, hoe snel productinformatie verandert en welke bronnen officieel zijn. Het zou geen SEO-truc zijn. Het zou een laag voor agent-bruikbaarheid zijn.
- Ten derde zou het moeten bereid je voor op protocolgestuurde handel in plaats van aan te nemen dat alle transacties binnen zijn eigen interface zullen blijven beginnen. Als Google UCP bouwt om de handel binnen AI-native omgevingen te ondersteunen, en als betalingsnetwerken en infrastructuurbedrijven vertrouwenslagen bouwen voor agentische handel, dan moeten grote retailers ervan uitgaan dat agentgericht afrekenen, verifiëren en ontdekken van strategisch belang zullen worden.
Inditex zou voor die transitie ongebruikelijk goed gepositioneerd kunnen zijn. Maar de bedrijven die in de volgende handelsfase winnen, zullen niet noodzakelijkerwijs degenen zijn met de mooiste interfaces. Zij zullen het voor agenten het gemakkelijkst maken om ze te begrijpen, te vertrouwen en te gebruiken.
Het web begint zijn machinelaag bloot te leggen
Er bestaat een begrijpelijke verleiding om zaken als llms.txt, Identity.txt, Agent Cards of machinaal leesbare beleidslagen af te doen als marginale technische curiosa. Dat zou een vergissing zijn.
Het zijn vroege wegwijzers.
Nee, llms.txt is nog geen universeel aanvaarde standaard. En nee, het toevoegen ervan zal een bedrijf niet van de ene op de andere dag op magische wijze transformeren. Maar dat mist het punt. Kleine bestanden en lichtgewicht conventies zijn van belang omdat ze onthullen waar de infrastructuur naartoe gaat. Het internet heeft tientallen jaren besteed aan het perfectioneren van interfaces voor het menselijk oog. Nu begint men, op onhandige maar onmiskenbare wijze, interfaces voor softwareagenten bloot te leggen.
Dat is de diepere verschuiving.
De originele webgerelateerde documenten. Het platform internet verbonden gebruikers en diensten. De volgende zal steeds meer agenten, tools, verkopers, betalingssystemen en geauthenticeerde identiteiten met elkaar verbinden. En wanneer dat gebeurt, verandert de strategische vraag.
Het is niet langer alleen maar: “Hoe zorg ik ervoor dat mensen mijn website bezoeken?”
Het wordt: “Hoe maak ik mijn bedrijf begrijpelijk, betrouwbaar en bruikbaar voor de systemen die steeds meer tussen mij en mijn klanten in staan?”
Dat is geen ontwerpaanpassing. Het is een nieuwe laag van digitale strategie.


