Goed nieuws, OpenClaw-fans: je kunt je Claude AI-abonnement opnieuw gebruiken om het populaire, open source, autonome AI-agentharnas aan te sturen! Maar er zit een groot probleem met de manier waarop het wordt uitgevoerd.
Een paar uur geleden, Antropisch aangekondigd via het officiële ontwikkelaarscommunicatieaccount op X, @ClaudeDevsdat het zijn betaalde Claude-abonnementsniveaus wijzigt, introductie van een nieuwe subcategorie van ‘Agent SDK’-credits voor alle betaalde abonnees, die ze nu specifiek kunnen toewijzen voor “programmatisch” gebruik, inclusief externe agenten van derden zoals OpenClaw.
De stap is een grote omkering ten opzichte van die van de Anthropic beleid dat begin april 2026 werd ingevoerd dat uitdrukkelijk verbood dat zijn AI-abonnementen werden gebruikt om dit soort niet-Anthropic agenten en harnassen aan te drijven, nadat Anthropic had gezegd dat ze capaciteits- en serviceproblemen veroorzaakten.
Het probleem was dat sommige Claude-abonnees $20 tot $200 per maand betaalden onder de Claude Pro- en Max-abonnementen van Anthropic, maar honderden, zelfs duizenden dollars aan tokens (informatie-eenheden) boven die prijzen consumeerden via hun OpenClaw (en soortgelijke autonome) agenten. Dit was een onhoudbare positie voor de financiën van Anthropic en de beperkte computerinfrastructuur voor het afleiden van de modellen voor eindgebruikers.
Voor alle duidelijkheid: zelfs toen het vorige maand het oude verbod tegen OpenClaw en soortgelijke middelen in werking stelde, heeft Anthropic nooit volledig de mogelijkheid voor Claude om in OpenClaw te gebruiken afgesloten. In plaats daarvan werden gebruikers doorgestuurd om via het bedrijf te betalen applicatieprogrammeringsinterface (API)dat wordt gefactureerd op basis van gebruik (geprijsd per miljoen tokens, in plaats van een vast maandelijks tarief zoals de abonnementen bieden), of betalen voor extra gebruikskredieten bovenop hun abonnementen.
Nu biedt Anthropic Claude-abonnees een andere manier om hun abonnementsrekening te gebruiken om te betalen voor externe agenten.
Het herstel brengt echter een belangrijk addertje onder het gras: programmatisch gebruik wordt niet langer gesubsidieerd door de algemene abonnementspool, maar is in plaats daarvan beperkt tot een vast, niet-rollover maandelijks tegoed, ook ter waarde van $ 20- $ 200, afhankelijk van uw Claude-abonnement, en gefactureerd tegen de API-tarieven.
Met andere woorden: als u deze nieuwe Agent SDK-tegoeden niet gebruikt, vervallen ze gewoon aan het einde van de maand. En als u ze allemaal opgebruikt, kunt u niet in de algemene gebruikslimieten van uw abonnement duiken om eventueel extra gebruik te dekken; u zult in plaats daarvan extra gebruikskredieten moeten kopen.
Waarom blokkeerde Anthropic überhaupt Claude-abonnementen van OpenClaw (en andere AI-harnassen van derden)?
Om te begrijpen waarom deze restauratie ertoe doet, moeten we kijken naar de technische wrijving die leidde tot het aanvankelijke verbod op 4 april 2026.
De eigen tools van Anthropic, zoals Claude Code en Claude Cowork, zijn ontworpen om de ‘prompt cache hit rates’ te maximaliseren – een methode om eerder verwerkte tekst te hergebruiken om dure rekencycli te besparen.
Tools van derden zoals OpenClaw, waarmee gebruikers autonome agenten kunnen gebruiken via externe diensten zoals Discord of Telegram, waren vaak niet geoptimaliseerd voor deze efficiëntieverbeteringen. Boris Cherny, hoofd van Claude Code, merkte op dat deze diensten van derden “voor ons erg moeilijk waren om duurzaam te doen” omdat ze de caching-mechanismen omzeilden die Anthropic in staat stellen om abonnementen met een vast tarief aan te bieden.
De enorme hoeveelheid gegevens die door inefficiënte agenten opnieuw werd verwerkt, bedreigde de stabiliteit van het systeem voor de bredere gebruikersbasis. Zelfs met de enorme uitbreiding van Anthropic naar nieuwe hardware, inclusief toegang tot de 300MW Colossus 1 datacenter en de meer dan 220.000 GPU’s: de vraag naar agentische workflows was groter dan het duurzame aanbod.
Het nieuwe “Agent SDK credit”-systeem lost dit technische knelpunt op door de kosten van inefficiëntie terug te schuiven naar de gebruiker. Door een speciaal tegoed in dollars te verstrekken, hoeft Anthropic niet langer het verschil op te eten van niet-geoptimaliseerde code van derden. Als een agent inefficiënt is en tokens verbruikt, raakt het nieuwe Agent SDK-kredietbudget van $20 tot $200 eenvoudigweg sneller leeg, in plaats van dat de waarde van de vaste maandelijkse abonnementsniveaus van Anthropic wordt overschreden.
Het nieuwe programmatische kredietsysteem van Anthropic
Het herstel van de toegang van derden is gesegmenteerd over de factureringslagen van Anthropic, waardoor een nieuwe hiërarchie van ‘programmatische macht’ ontstaat. Hier ziet u hoeveel Anthropic elke gebruiker geeft in termen van de nieuwe Agent SDK-credits (naast hun normale Claude-gebruik via Anthropic Claude-producten zoals Claude Code, Claude Cowork enz.).
|
Plan |
Maandelijks, Dedicated Agent SDK-tegoed (bovenop bestaande abonnementen) |
Gebruikscontext |
|
Pro |
$ 20 |
Individuele scripts en licht SDK-gebruik. |
|
Maximaal 5x |
$ 100 |
Matige agentautomatisering. |
|
Maximaal 20x |
$ 200 |
Professionele ontwikkelomgevingen. |
|
Team (Premium) |
$ 100 / stoel |
Collaboratieve teamautomatisering. |
|
Onderneming (Premium) |
$ 200 / stoel |
Seat-gebaseerd grootschalig zakelijk gebruik. |
Dit systeem introduceert een scherpe kloof tussen “interactieve” en “programmatische” workflows. Als u met Claude in een browser chat of Claude Code in een terminal gebruikt om interactief code te schrijven, profiteert u nog steeds van uw standaard abonnementslimieten met hoge capaciteit.
Als Antropische technische stafmedewerker Lydia Hallie schreef in een bericht op X,,Voor alle duidelijkheid: je betaalt niets extra. Het is hetzelfde abonnement, dezelfde prijs per maand.” Hallie heeft ook het volgende handige diagram toegevoegd van hoe de nieuwe Agent SDK-credits werken:
Echter, op het moment dat u de claude -p opdracht voor niet-interactieve taken, voer een GitHub-actie uit of sluit een tool van derden zoals OpenClaw aan, het systeem schakelt over naar het speciale Agent SDK-tegoed.
Zodra de Agent SDK-kredietlimiet ($20 voor Pro-abonnementen, $100 voor Max 5X, enz.) is opgebruikt, stopt het programmatische gebruik tenzij de gebruiker facturering voor “extra gebruik” heeft ingeschakeld, die in rekening wordt gebracht tegen standaard, pay-as-you-go API-tarieven.
Cruciaal is dat dit een harde limiet is voor degenen die vonden dat het oorspronkelijke abonnementsmodel een oneindige bron was. Credits worden niet overgedragen, wat betekent dat het ‘gebruik het of verlies het’-karakter van het systeem een maandelijkse reset van het budget van de ontwikkelaar afdwingt.
Strategische implicaties
De licentie-implicaties van deze stap zijn ingrijpend voor het ‘agentische’ ecosysteem.
Door apps van derden zoals Conductor en OpenClaw expliciet toe te staan om zich te authenticeren via de Agent SDK, legitimeert Anthropic een workflow die het eerder probeerde te blokkeren.
Daarmee is echter een einde gekomen aan het tijdperk van ‘compute arbitrage’. Begin 2026 zou een Pro-abonnement van $ 20 via OpenClaw kunnen worden gebruikt om agents uit te voeren die honderden dollars zouden kosten met een standaard API-sleutel.
Door over te stappen op een gemeten krediet, stemt Anthropic zijn abonnementsmodel af op zijn Developer Platform (API). Hoewel het een “gratis” buffer biedt voor abonnees, zorgt het ervoor dat automatisering van grote volumes op productieniveau wordt verplaatst naar voorspelbare, op tokens gebaseerde facturering.
Dit beschermt de marges van het bedrijf en biedt ontwikkelaars nog steeds een ‘sandbox’ om te experimenteren zonder de directe overhead van een API-first-account.
De reacties uit de gemeenschap zijn wellicht niet verrassend negatief
Terwijl leidinggevenden van Anthropic de update als een “vereenvoudiging” hebben ingekaderd, heeft de ontwikkelaarsgemeenschap deze grotendeels gebrandmerkt als een aanzienlijke vermindering van de waarde van hun abonnementen. De tegenreactie concentreert zich op de scherpe kloof tussen het eerdere effectieve gebruik en de nieuwe, gemeten realiteit.
Populaire AI YouTuber en ontwikkelaar Theo Browne (@theo) van T3.gg waarschuwde ontwikkelaars dat deze verandering een enorme devaluatie betekent voor degenen die externe tools gebruiken. “Als je een van de volgende dingen gebruikt met je Claude-sub, moet je gebruik met 25x worden verminderd”, aldus Theo, waarbij hij T3 Code, Conductor, Zed en Jean vermeldde als getroffen platforms. Hij sloot af met een scherpe waarschuwing: “Ze vermommen dit als ‘gratis credits’. Trap er niet in”.
Kun Cheneen solobouwer en voormalig L8-ingenieur bij Meta, Microsoft en Atlassian, interpreteerde de stap als een volledige overgave van de marktleiderschap van Anthropic. “Het is officieel. Anthropic heeft de stekker uit ALLE programmatische gebruik van Claude-abonnementen getrokken”, schreef Chen, eraan toevoegend dat hij daardoor “steeds optimistischer werd over OpenAI”. Chen voerde aan dat “Anthropic’s enige voorsprong op het gebied van coderen lag, en gpt 5.5 heeft dat al omgedraaid”, wat duidt op een potentiële migratie van elite ontwikkelaarstalent.
Andere bouwers trokken het praktische nut van de aangeboden kredieten in twijfel. Ben Hylakmede-oprichter en chief technology officer bij AI-agent observability and governance startup Raindrop.ai, uitte zijn bezorgdheid over de duurzaamheid van de infrastructuur van Anthropic. “Dit is óf heel dom, óf het laat zien hoe slecht een antropische plek is op het gebied van GPU’s,” merkte Hylak op, voordat u gebruikers botweg vraagt om “te raden hoeveel beurten $ 20 aan API-credits duren”.
De frustratie strekte zich uit tot de marketing van de verandering. OoitNooitmaker van inkstone.uk, uitte zijn ongeloof over de formulering van het beleid. “Wacht wat?! Je neemt meer manieren weg om het abonnement te gebruiken waarvoor ik betaal?! En durf je het op een overwinning te laten lijken?”. Dit sentiment benadrukt een groeiende kloof tussen Anthropic en zijn power-user-basis, die het gevoel hebben dat voorheen inclusieve functies worden ingetrokken onder het mom van een ‘upgrade’.
Het belangrijkste voor Anthropic-abonnees en AI-bouwers
Het ‘herstel’ van Anthropic is een tactische zet om ontwikkelaars te behouden en tegelijkertijd de fysieke grenzen van de rekenkracht strikt te beheersen. Op 15 juni zal het ‘agentic’-tijdperk voor Claude-abonnees een gemeten tijdperk zijn.
Het bedrijf heeft met succes de controle over zijn marges teruggewonnen, ook al heeft het hen een deel van de goodwill van hun meest luidruchtige machtsgebruikers gekost.
Voor de individuele ontwikkelaar of zakelijke AI-bouwer die vertrouwt op Anthropic-modellen voor OpenClaw, is het echter duidelijk een verbetering ten opzichte van het algemene verbod van vorige maand.


