Wanneer Amazone kondigde een investering van $ 50 miljard aan en ingrijpende maatregelen cloud-partnerschap met OpenAI onlangs dook er een vraag op binnen de cloudgigant: wat betekent dit voor Anthropic?
Amazon is er één van De grootste investeerders van Anthropicen heeft een deep cloud-partnerschap met de startup. OpenAI en Anthropic zijn aartsvijanden, dus er zijn potentiële spanningen en conflicten doordat Amazon zo nauw samenwerkt met beide AI-laboratoria.
De technologiegigant heeft een deel hiervan besproken in interne gespreksonderwerpen die het onlangs heeft voorbereid voor verkoop- en marketingteams bij Amazon. Business Insider heeft een exemplaar van de richtlijnen bekeken.
Het document is het nieuwste voorbeeld van hoe verweven relaties zijn geworden aan de voorrand van het generatieve AI-veld. Deze technologie vereist een enorm dure herbedrading van de cloudindustrie en de technologiesector in het algemeen.
Dat heeft ertoe geleid dat technologiegiganten zwaar hebben geïnvesteerd in veel van de beste AI-startups. Anthropic heeft bijvoorbeeld miljarden dollars afgepakt van Google en Amazon, die zelf aartsrivalen zijn op het gebied van cloud computing en het online zoeken naar producten.
“Binnen de vangrails”
AWS-CEO Matt Garman Noah Berger/REUTERS
De antropische kwestie is slechts een van de delicate onderwerpen die in de memo aan bod komen. De richtlijn bevat goedgekeurd taalgebruik, verboden bewoordingen en voorbereide antwoorden op vragen variërend van concurrentiedynamiek tot beschuldigingen dat de OpenAI-regeling neerkomt op een circulaire financiering.
Alles bij elkaar laten de materialen zien hoe doelbewust Amazon het verhaal rond een van de meest consequente AI-allianties in de sector vormgeeft.
“Het is heel belangrijk dat al onze marketing binnen de vangrails blijft”, aldus de memo. Een woordvoerder van Amazon weigerde commentaar te geven.
Geruststelling voor AWS-klanten
In zijn richtlijnen instrueerde Amazon werknemers om AWS-klanten gerust te stellen dat het “sterke relaties” onderhoudt met Anthropic en andere aanbieders van AI-modellen, waaronder Meta, Mistral en Cohere.
“We zullen nauw blijven samenwerken met alle modelaanbieders en verwachten dat deze partnerschappen in de loop van de tijd alleen maar sterker zullen worden naarmate de vraag van klanten naar meerdere modellen toeneemt”, aldus het document.
Niet “OpenAI op AWS”
Als onderdeel van de nieuwe deal van Amazon met OpenAI creëerden de bedrijven een AI-systeemarchitectuur genaamd Stateful Runtime Environment, of SRE. De nieuwe dienst wordt mogelijk gemaakt door OpenAI-modellen en is beschikbaar op Amazon Bedrock, het platform van de cloudgigant waarmee klanten toegang krijgen tot verschillende modellen.
Amazon controleert streng hoe werknemers het SRE-aanbod beschrijven.
AWS-medewerkers kunnen zeggen dat de SRE “wordt aangedreven door OpenAI-modellen”, “mogelijk wordt gemaakt door OpenAI-modellen” of “geïntegreerd is met OpenAI-modellen”, volgens de gesprekspunten in het document dat door Business Insider is beoordeeld.
AWS-personeel wordt echter expliciet verteld om niet te zeggen dat SRE “toegang tot OpenAI-modellen mogelijk maakt” of klanten toestaat “OpenAI-modellen te bellen”. Het document waarschuwt ervoor om de SRE niet te beschrijven als een “doorvoer” naar GPT-modellen of te suggereren dat de grensmodellen van OpenAI algemeen beschikbaar zijn op AWS.
AWS-werknemers wordt ook verteld niet te impliceren dat OpenAI de SRE “aanbiedt”. In plaats daarvan werken de bedrijven ‘gezamenlijk samen om het aan te bieden’.
Het onderscheid is bewust gemaakt. OpenAI-modellen zullen de SRE ondersteunen, maar klanten kunnen deze niet rechtstreeks aanroepen via bestaande Bedrock API’s. (Application Programming Interfaces, of API’s, zijn een gebruikelijke manier voor applicaties om toegang te krijgen tot gegevens en deze te delen).
Deze positionering van Amazon scheidt zijn nieuwe deal van de regeling van Microsoft om OpenAI-modellen te hosten op zijn Azure-cloudservice. Het versterkt ook dat AWS niet alleen OpenAI-modellen doorverkoopt, maar zijn modellen inbedt in een specifieke infrastructuurdienst.
Veel operationele details blijven nog steeds geheim. Prijzen, technische limieten en regionale beschikbaarheid worden allemaal intern vermeld als ‘blijf op de hoogte’.
Is dit een circulaire deal?
De interne memo gaat ook in op de vraag of Amazon’s investering van 50 miljard dollar in OpenAI neerkomt op een circulaire overeenkomst. Dergelijke zorgen zijn gebruikelijk geworden in de AI-industrie, waar technologiegiganten investeren in startups, om vervolgens veel van dat geld terug te zien komen in de vorm van clouduitgaven.
In het geval van Amazon breidt OpenAI zijn bestaande AWS-cloudovereenkomst uit met $100 miljard over een periode van acht jaar en verbindt zich ertoe om 2 gigawatt aan AWS Trainium-chips te gebruiken als onderdeel van de deal van vorige maand.
AWS-medewerkers krijgen de opdracht om eventuele circulaire financieringsclaims terug te draaien. Het document stelt dat bedrijven vaak in elkaar investeren en zaken met elkaar doen, vooral in kapitaalintensieve industrieën. Er staat dat de redenen van Amazon om in OpenAI te investeren verschillend zijn van de redenen van OpenAI om de AWS-infrastructuur te gebruiken.
Nova opgeven?
De gespreksonderwerpen bereiden teams verder voor op het reageren op zorgen dat de regeling Amazons eigen Nova AI-modellen of zijn Quick agentic AI-applicatieaanbod buiten spel zou kunnen zetten. Als onderdeel van de deal wordt Amazon de exclusieve aanbieder van OpenAI’s Frontier-service, die zakelijke technologiefuncties heeft die vergelijkbaar zijn met Quick.
De richtlijnen benadrukten de voortdurende toewijding van Amazon aan Nova en Quick, en het belang van het bieden van keuze aan klanten. Klanten gebruiken meerdere AI-modellen, zelfs binnen dezelfde applicatie, aldus de richtlijnen.
De gesprekspunten gaan ook in op de zorgen over de chipaanvoer.
Gezien de enorme infrastructuurbehoeften van OpenAI verwacht AWS dat klanten zich zullen afvragen of de Trainium-capaciteit beperkt zal zijn. Amazon heeft eerder gezegd dat de groei van AWS sterker zou zijn geweest als er geen krappe capaciteitsproblemen waren geweest.
De richtlijnen stellen teams echter gerust dat veel klanten nog steeds toegang zullen hebben tot Trainium voor hun eigen AI-workloads.
Heeft u een tip? Neem contact op met deze verslaggever via e-mail op ekim@businessinsider.com of Signal, Telegram of WhatsApp op 650-942-3061. Gebruik een persoonlijk e-mailadres, een niet-werkelijk wifi-netwerk en een niet-werkapparaat; hier is onze gids voor het veilig delen van informatie.


