Anthropic heeft de implementatie bevestigd van strikte nieuwe technische veiligheidsmaatregelen die voorkomen dat applicaties van derden zijn officiële codeerclient, Claude Code, vervalsen om toegang te krijgen tot de onderliggende Claude AI-modellen voor gunstiger prijzen en limieten – een stap die de workflows voor gebruikers van de populaire open source codeeragent OpenCode heeft verstoord.
Tegelijkertijd, maar afzonderlijk, heeft het het gebruik van zijn AI-modellen door concurrerende laboratoria, waaronder xAI, beperkt (via de geïntegreerde ontwikkelaarsomgeving Cursor) om concurrerende systemen te trainen in Claude Code.
De voormalige actie werd vrijdag verduidelijkt door Thariq Shihipar, een lid van de technische staf bij Anthropic die aan Claude Code werkt.
Schrijven op het sociale netwerk X (voorheen Twitter), aldus Shihipar dat het bedrijf “onze veiligheidsmaatregelen tegen het vervalsen van het Claude Code-harnas had aangescherpt.”
Hij erkende dat de uitrol onbedoelde bijkomende schade had, en merkte op dat sommige gebruikersaccounts automatisch werden verbannen omdat ze misbruikfilters activeerden – een fout die het bedrijf momenteel ongedaan maakt.
Het blokkeren van de integraties van derden zelf lijkt echter opzettelijk te zijn.
De verhuizing is gericht op het benutten van softwarepakketten die het webgebaseerde Claude-account van een gebruiker via OAuth besturen om geautomatiseerde workflows aan te sturen.
Dit verbreekt effectief de link tussen Claude Pro/Max-abonnementen met een vast tarief en externe codeeromgevingen.
Het harnasprobleem
Een harnas fungeert als brug tussen een abonnement (ontworpen voor menselijke chat) en een geautomatiseerde workflow.
Tools zoals OpenCode werken door de identiteit van de client te vervalsen en headers te verzenden die de Anthropic-server ervan overtuigen dat het verzoek afkomstig is van zijn eigen officiële opdrachtregelinterface (CLI).
Shihipar noemde technische instabiliteit als de belangrijkste oorzaak van de blokkering, en merkte op dat ongeautoriseerde harnassen bugs en gebruikspatronen introduceren die Anthropic niet goed kan diagnosticeren.
Wanneer een wrapper van derden zoals Cursor (in bepaalde configuraties) of OpenCode een fout tegenkomt, geven gebruikers vaak de schuld aan het model, waardoor het vertrouwen in het platform wordt aangetast.
De economische spanning: de analogie van het buffet
De ontwikkelaarsgemeenschap heeft echter gewezen op een eenvoudiger economische realiteit die ten grondslag ligt aan de beperkingen op Cursor en soortgelijke tools: de kosten.
Uitgebreid discussies op Hacker News Vanaf gisteren verenigden gebruikers zich rond een buffet-analogie: Anthropic biedt een onbeperkt buffet aan via zijn consumentenabonnement ($200/maand voor Max), maar beperkt de consumptiesnelheid via zijn officiële tool, Claude Code.
Harnassen van derden verwijderen deze snelheidslimieten. Een autonome agent die binnen OpenCode draait, kan lussen met hoge intensiteit uitvoeren (coderen, testen en fouten herstellen van de ene op de andere dag) die bij een meetplan onbetaalbaar zouden zijn.
“In een maand Claude Code is het gemakkelijk om zoveel LLM-tokens te gebruiken dat het je meer dan $1.000 zou hebben gekost als je via de API had betaald”, aldus Hacker News-gebruiker dfabulich.
Door deze harnassen te blokkeren dwingt Anthropic grootschalige automatisering in de richting van twee goedgekeurde paden:
-
De commerciële API: gemeten prijzen per token die de werkelijke kosten van agentische lussen vastleggen.
-
Claude Code: de beheerde omgeving van Anthropic, waar ze de snelheidslimieten en de uitvoeringssandbox beheren.
Gemeenschapsspil: kat en muis
De reactie van gebruikers was snel en grotendeels negatief.
“Lijkt erg klantvijandig”, schreef de Deense programmeur David Heinemeier Hansson (DHH), de maker van het populaire Ruby on Rails open source webontwikkelingsframework, in een bericht op X.
Anderen stonden echter meer sympathiek tegenover Anthropic.
“Antropisch optreden tegen mensen die misbruik maken van de abonnementsauthenticatie is de zachtaardigste die het had kunnen zijn”, schreef Artem K, ook bekend als @banteg op Xeen ontwikkelaar geassocieerd met Yearn Finance. “Gewoon een beleefd bericht in plaats van uw account te vernietigen of u met terugwerkende kracht API-prijzen in rekening te brengen.”
Het team achter OpenCode ging meteen van start Open Code Zwarteen nieuwe premiumlaag voor $ 200 per maand die naar verluidt verkeer via een enterprise API-gateway leidt om de OAuth-beperkingen voor consumenten te omzeilen.
Bovendien plaatste OpenCode-maker Dax Raad op X dat het bedrijf zou samenwerken met Anthropic-rivaal OpenAI om gebruikers van zijn codeermodel en ontwikkelingsagent, Codex, “rechtstreeks binnen OpenCode van hun abonnement te laten profiteren”, en plaatste vervolgens een GIF van de onvergetelijke scène uit de film uit 2000. Gladiator waarin Maximus (Russell Crowe) aan een menigte vraagt: “Ben je niet vermaakt?” na het afhakken van het hoofd van een tegenstander met twee zwaarden.
Voorlopig is de boodschap van Anthropic duidelijk: het ecosysteem consolideert. Of het nu gaat om juridische handhaving (zoals te zien is bij het gebruik van Cursor door xAI) of technische veiligheidsmaatregelen, het tijdperk van onbeperkte toegang tot Claude’s redeneervermogen loopt ten einde.
De xAI-situatie en cursorverbinding
Gelijktijdig met het technische optreden hebben ontwikkelaars van het concurrerende AI-lab xAI van Elon Musk naar verluidt de toegang tot de Claude-modellen van Anthropic verloren. Hoewel de timing een uniforme strategie suggereert, geven bronnen die bekend zijn met de zaak aan dat dit een afzonderlijke handhavingsactie is, gebaseerd op commerciële voorwaarden, waarbij Cursor een centrale rol speelt in de ontdekking.
Zoals voor het eerst gemeld door technologiejournalist Kylie Robison van de publicatie Kerngeheugenhadden xAI-medewerkers antropische modellen gebruikt – met name via de Cursor IDE – om hun eigen ontwikkeling te versnellen.
“Hallo team, ik geloof dat velen van jullie al hebben ontdekt dat Anthropic-modellen niet reageren op Cursor”, schreef xAI-medeoprichter Tony Wu woensdag in een memo aan het personeel, volgens Robison. “Volgens Cursor is dit een nieuw beleid dat Anthropic afdwingt voor al zijn grote concurrenten.”
Echter, Sectie D.4 (Gebruiksbeperkingen) van De commerciële servicevoorwaarden van Anthropic verbiedt klanten uitdrukkelijk de diensten te gebruiken om:
(a) toegang krijgen tot de Services om een concurrerend product of dienst te bouwen, inclusief het trainen van concurrerende AI-modellen… (of) (b) de Services reverse-engineeren of dupliceren.
In dit geval fungeerde Cursor als voertuig voor de overtreding. Hoewel de IDE zelf een legitiem instrument is, veroorzaakte het specifieke gebruik ervan door xAI om Claude in te zetten voor competitief onderzoek de juridische blokkade.
Precedent voor het blok: de OpenAI- en windsurf-cutoffs
De beperking op xAI is niet de eerste keer dat Anthropic zijn Servicevoorwaarden of infrastructuurcontrole gebruikt om een grote concurrent of tool van derden af te schermen. De acties van deze week volgen een duidelijk patroon dat in 2025 werd vastgesteld, toen Anthropic agressief in actie kwam om zijn intellectuele eigendom en computerbronnen te beschermen.
In augustus 2025 heeft het bedrijf heeft de toegang van OpenAI tot de Claude API ingetrokkenonder opvallend vergelijkbare omstandigheden. Bronnen vertelden Bedraad dat OpenAI Claude had gebruikt om zijn eigen modellen te benchmarken en veiligheidsreacties te testen – een praktijk die Anthropic markeerde als een schending van zijn concurrentiebeperkingen.
“Claude Code is de favoriete keuze geworden voor programmeurs overal ter wereld, en het was dus geen verrassing om te horen dat OpenAI’s eigen technische staf ook onze codeertools gebruikte”, zei een woordvoerder van Anthropic destijds.
Slechts enkele maanden daarvoor, in juni 2025, werd de codeeromgeving Windsurf geconfronteerd met een soortgelijke plotselinge black-out. In een publieke verklaringonthulde het Windsurf-team dat “Anthropic ons met minder dan een week van tevoren liet weten dat ze bijna al onze first-party capaciteit hadden afgesloten” voor de Claude 3.x-modelfamilie.
Deze stap dwong Windsurf om onmiddellijk de directe toegang voor gratis gebruikers te ontnemen en over te stappen op een “Bring-Your-Own-Key” (BYOK) -model, terwijl Google’s Gemini werd gepromoot als een stabiel alternatief.
Terwijl Windsurf uiteindelijk weken later de first-party toegang voor betalende gebruikers herstelde, versterkt het incident – in combinatie met de intrekking van OpenAI en nu het xAI-blok – een rigide grens in de AI-wapenwedloop: hoewel laboratoria en tools naast elkaar kunnen bestaan, behoudt Anthropic zich het recht voor om de verbinding te verbreken op het moment dat het gebruik zijn concurrentievoordeel of bedrijfsmodel in gevaar brengt.
De katalysator: de virale opkomst van ‘Claude Code’
De timing van beide repressieve acties is onlosmakelijk verbonden met de enorme stijging in populariteit van Claude Code, de eigen terminalomgeving van Anthropic.
Terwijl Claude Code werd oorspronkelijk begin 2025 uitgebrachtwas het een groot deel van het jaar een nichebedrijf. Het echte doorbraakmoment kwam pas in december 2025 en de eerste dagen van januari 2026 – minder gedreven door officiële updates en meer door de door de gemeenschap geleide Het fenomeen “Ralph Wiggum”..
Vernoemd naar de domme mensen Simpsons karakter, maakte de Ralph Wiggum-plug-in een methode van “brute force” -codering populair. Door Claude op te sluiten in een zelfherstellende lus waarin fouten worden teruggekoppeld naar het contextvenster totdat de code de tests doorstaat, bereikten ontwikkelaars resultaten die verrassend dicht bij AGI leken.
Maar de huidige controverse gaat niet over het feit dat gebruikers de toegang verliezen tot de Claude Code-interface (wat veel ervaren gebruikers feitelijk beperkend vinden), maar eerder over de onderliggende engine, het Claude Opus 4.5-model.
Door de officiële Claude Code-client te spoofen, konden ontwikkelaars met tools als OpenCode het krachtigste redeneermodel van Anthropic benutten voor complexe, autonome loops tegen een vast abonnementstarief, waardoor het verschil tussen consumentenprijzen en bedrijfsinformatie effectief werd bemiddeld.
Zoals ontwikkelaar Ed Andersen op X schreef, kan een deel van de populariteit van Claude Code te danken zijn aan mensen die het op deze manier vervalsen.
Het is duidelijk dat de hoofdgebruikers het op grote schaal wilden gebruiken zonder bedrijfstarieven te betalen. De nieuwe handhavingsacties van Anthropic zijn een directe poging om deze op hol geslagen vraag terug te leiden naar de gesanctioneerde, duurzame kanalen.
Takeaways voor zakelijke ontwikkelaars
Voor Senior AI-ingenieurs die zich richten op orkestratie en schaalbaarheid vereist deze verschuiving een onmiddellijke herarchitectuur van pijpleidingen om prioriteit te geven aan stabiliteit boven ruwe kostenbesparingen.
Hoewel tools als OpenCode een aantrekkelijk alternatief voor zware automatisering boden, blijkt uit het harde optreden van Anthropic dat deze ongeautoriseerde wrappers niet-diagnostische bugs en instabiliteit introduceren.
Om de modelintegriteit te garanderen, moeten alle geautomatiseerde agenten nu via de officiële Commercial API of de Claude Code-client worden geleid.
Daarom moeten besluitvormers van ondernemingen er rekening mee houden: ook al zijn open source-oplossingen wellicht betaalbaarder en verleidelijker, als ze worden gebruikt om toegang te krijgen tot propriëtaire AI-modellen zoals die van Anthropic, is toegang niet altijd gegarandeerd.
Deze transitie vereist een hervoorspelling van de operationele budgetten – van voorspelbare maandelijkse abonnementen naar variabele facturering per token – maar ruilt uiteindelijk financiële voorspelbaarheid in voor de zekerheid van een ondersteunde, productieklare omgeving.
Vanuit een beveiligings- en complianceperspectief leggen de gelijktijdige blokkades op xAI en open-sourcetools de kritieke kwetsbaarheid van ‘Shadow AI’ bloot.
Wanneer technische teams persoonlijke accounts of vervalste tokens gebruiken om bedrijfscontroles te omzeilen, riskeren ze niet alleen technische schulden, maar ook een plotseling, organisatiebreed toegangsverlies.
Beveiligingsdirecteuren moeten nu interne toolchains controleren om ervoor te zorgen dat geen enkele ‘dogfooding’ van modellen van concurrenten in strijd is met commerciële voorwaarden en dat alle geautomatiseerde workflows worden geverifieerd via de juiste bedrijfssleutels.
In dit nieuwe landschap moet de betrouwbaarheid van de officiële API de kostenbesparingen van niet-geautoriseerde tools overtroeven, omdat het operationele risico van een totaal verbod ruimschoots opweegt tegen de kosten van een goede integratie.


