Sigrid Jin werd dinsdag om 4 uur wakker. Zijn telefoon “ontplofte” met de Claude Code-lek.
De 25-jarige studente van de University of British Columbia ging aan de slag. Er waren twee mensen nodig, tien Open Klauweneen MacBook Pro-laptop, en een paar uur om het opnieuw te maken populaire AI-agenten broncode en deel deze met de wereld.
Drie uur eerder postte X-gebruiker Chaofan Shou dat hij per ongeluk 512.000 regels van de broncode voor Claude Code had gepubliceerd, inclusief details over hoe de tool werkt en test op nieuwe functies.
Hoewel Antropisch snel de ongeautoriseerde Claudes onder controle kreeg, is de reproductie van Jin – die hij samen met het in Seoel gevestigde Yeachan Heo maakte met behulp van Python en ‘Claw Code’ noemt – er tot nu toe ongeschonden uitgekomen.
“Verrassend genoeg heeft niemand van Anthropic of GitHub contact met ons opgenomen”, schreef Jin aan Business Insider, verwijzend naar de gecentraliseerde hub voor het beheren van code waar Claw Code nu leeft. “We bereiden ons echter voortdurend voor op mogelijke juridische stappen, omdat ons belangrijkste doel is om ervoor te zorgen dat we dit op een volledig legitieme manier aanpakken.”
Het is een ironische wending voor een industrie waarvan beschuldigd wordt gebruik van gepubliceerd materiaal om zijn modellen te trainen en een bedrijf dat zijn modellen aanprijst handtekening veiligheidsbelofte als concurrentievoordeel. Codeerders zijn ook blij met een kijkje achter de schermen bij een tool die centraal is komen te staan in hun werk, vooral na de lancering van geprezen modellen zoals Opus 4.5 en 4.6 van de afgelopen maanden.
“Het beste deel” van het hele debacle, zei Jin, is dat het resulteert in een grotere democratisering van codeertools.
“Niet-technische mensen gebruiken deze middelen om echte dingen te bouwen”, zei hij. “We hebben het over cardiologen die patiëntenzorg-apps maken en advocaten die de goedkeuring van vergunningen automatiseren. Het is een groot deelfeest geworden.”
Anthropic zei dat het lek te wijten was aan een menselijke fout en niet aan een inbreuk op de beveiliging. “We voeren maatregelen uit om te voorkomen dat dit opnieuw gebeurt”, schrijft een woordvoerder.
Ondertussen verspreiden techneuten hun kopieën op privé Discord-servers, waarbij ze nieuw ontdekte functies zoals spinner-werkwoorden, coderende huisdieren en de ‘fucks’-grafiek doorzoeken – zo genoemd door Claude Code-maker Boris Cherny – en zich afvragen hoe een van de grootste AI-bedrijven ter wereld überhaupt heeft kunnen lekken.
De verspreiding van het lek was een ‘workflow-openbaring’
Shou’s post van 1:23 uur verlichtte de wedstrijd.
Op X linkte Shou naar een zipbestand met de gelekte code. Hij is de CTO van Fuzzland en een drop-out van de UC Berkeley Ph.D. programma, volgens zijn LinkedIn-profiel. De link leidt nu naar een 404-fout.
Een uur later voegde de X-gebruiker @nichxbt de gelekte code naar zijn GitHubwaarvan duizenden exemplaren zijn geproduceerd. Dinsdagavond had Anthropic een grootschalig verwijderingsverzoek vanwege auteursrechtschending ingediend, waarbij GitHub aanvankelijk werd gevraagd meer dan 8.000 versies van de gelekte code te verwijderen.
De niet-gerelateerde repository’s van sommige programmeurs raakten betrokken bij de sweep. Woensdagochtend heeft Anthropic zijn verwijderingsverzoek ingehouden.
“We hebben de kennisgeving ingetrokken voor alles behalve de ene repo die we noemden” – die van @nichxbt – “en GitHub heeft de toegang tot de betrokken forks hersteld”, zei een woordvoerder van Anthropic in een verklaring.
Vanaf woensdagmiddag bleven andere websites toegang bieden tot de gelekte code of tools die waren gebaseerd op wat ooit de eigendomsinformatie van Anthropic was. De code blijft rondzweven in privéberichten en gearchiveerde links online. De reproductie van Jin’s Claw Code heeft nu 105.000 sterren en 95.000 vorken op GitHub. Op één dag sloten 5.000 mensen zich aan bij Jin’s Discord-servereen Koreaanse open-source LLM-gemeenschap, zei hij.
Ondertussen lijken de concurrenten van Anthropic gas op het vuur te gooien. Jin heeft gepost dat xAI hem heeft gestuurd Grok-credits. “Ik ben erg benieuwd om te zien wat je blijft bouwen!” xAI’s Umesh Khanna reageerde.
Jin zei dat het allemaal een ‘workflow-openbaring’ was. Het toonde aan dat hij AI kon gebruiken om een hele tool in een nieuwe taal te herscheppen: Python, in zijn geval. “Het feit dat dit mogelijk is, gecombineerd met de enorme snelheid waarmee het kan worden gedaan, is wat mensen echt wegblaast.”
Sigrid Jin heeft Claw Code gemaakt met één menselijke helper en tien OpenClaws. Sigrid Jin
Wat zat er in het lek: Spinner-werkwoorden, het coderen van huisdieren en de ‘fucks’-grafiek
Gabriel Bernadett-Shapiro, een AI-onderzoekswetenschapper bij SentinelOne, vertelde Business Insider dat het lek het meest opmerkelijk was omdat het het gordijn opende voor Anthropic’s benadering van de toekomst van AI-codeermiddelen.
“Voor mij was de conclusie niet: ‘Oh, ze zijn ernstig gehackt'”, vertelde Bernadett-Shapiro aan Business Insider. “Het was: ‘Hé, we hebben zojuist een heel ongewoon duidelijk beeld gekregen van waar AI-codeeragenten naartoe gaan.’
Bernadett-Shapiro zei dat de concurrenten van Anthropic waarschijnlijk aantekeningen hebben gemaakt over hoe de maker van AI-modellen problemen als agentgeheugen benadert.
“Elke concurrent zal die kennis waarschijnlijk gebruiken als: ‘Oké, dit is hoe Anthropic het doet, toch?’ zei hij. “Zoals: ‘komt dit overeen met ons model?'”
Kort na het lek begonnen techneuten de duizenden regels code uit elkaar te halen.
Ze hebben screenshots gemaakt van verwijzingen naar onuitgebrachte modellen – Opus 4.7, Sonnet 4.8 – en codenamen als ‘Capybara’ en ‘Tengu.’ Een Reddit-gebruiker zei dat ze een Tamagotchi-achtig huisdier hadden gezien dat “naast je invoervak zit en reageert op je codering.”
Eén gebruiker heeft een verwijzing gevonden naar ‘KAIROS’, een agent die 24/7 actief is en een dagelijks logboek bijhoudt. De gebruiker omschreef KAIROS als een “alwetende teamgenoot die alles opmerkt en afhandelt, voordat je er zelfs maar aan denkt om het te vragen.”
Cherny, de schepper van Claude Code, stemde inwaarin wordt geschreven dat Anthropic “altijd aan het experimenteren is” en dat 90% van de tests niet wordt verzonden. ‘Ik twijfel nog steeds over deze,’ zei hij, verwijzend naar KAIROS. “Moeten we het verzenden?”
Andere kenmerken wekten vreugde op, zoals de lijst met ‘spinner-werkwoorden’. Ze omvatten haasten, recombobuleren en op zijn kop zetten. “Bedankt Anthropic voor mijn nieuwe lijst met favoriete werkwoorden”, zei een X-gebruiker schreef.
Dan zijn er de vloekende analyses. Eén gebruiker zag dat Claude scheldwoorden registreert als ‘is_negative’. Hij schreef dat Anthropic “bijhield hoe vaak je woedend bent op je AI.”
Cherny reageerde dat deze signalen bepalen of de gebruiker een goede ervaring heeft. “We plaatsen het op een dashboard en noemen het de ‘fucks’-grafiek”, schreef hij.
Wie is verantwoordelijk voor de puinhoop op ‘noob-niveau’?
Hoewel Delip Rao, een AI-onderzoeker aan de Universiteit van Pennsylvania die voorheen bij Amazon en Twitter werkte, niet geïnteresseerd was in de inhoud van het lek, was hij wel geïnteresseerd in hoe het precies gebeurde.
“Anthropic neemt echt slimme mensen aan”, zei hij. “Het is zeer onwaarschijnlijk dat iemand die bij Anthropic werkt, dit soort noob-fouten maakt”, zei hij.
Hij theoretiseerde dat er mogelijk een AI-agent bij betrokken zou kunnen zijn, en vergeleek het met een recente storing van de e-commerce-operatie van Amazon, die gekoppeld was aan zijn AI-codeerassistent Q. “Naarmate er meer vertrouwen ontstaat, hebben we de neiging hun werk minder kritisch te onderzoeken”, zei Rao.
Anderen online hebben soortgelijke theorieën gedeeld. Eén gebruiker maakte een screenshot van een tweet van Cherny, waarin hij schreef: “100% van mijn bijdragen aan Claude Code zijn geschreven door Claude Code.” Het kreeg honderden likes.
Cherny reageerde direct naar dat bericht en sloeg de geruchten neer. ‘Het was een menselijke fout’, schreef hij. “Ons implementatieproces bestaat uit een paar handmatige stappen, en we hebben een van de stappen niet correct uitgevoerd. We hebben een paar verbeteringen doorgevoerd en zijn bezig met het toevoegen van meer sanity checks.”
Het antwoord is: versnellen, niet vertragen, schreef Cherny. Zijn oplossing: “meer automatisering en Claude controleert de resultaten.”
David Borish, een AI-strateeg bij Trace3, had aanvankelijk medelijden met Dario Amodei, CEO van Anthropic. Hij zag mensen online lessen uit de code gebruiken om hun eigen producten te verbeteren, zelfs als ze geen klanten van Anthropic waren. Als ondernemer kon hij zo’n lek niet doorgronden.
Toch gaf Borish de schuld aan de snelheid van Anthropic. Hij verwees naar het ethos van “beweeg snel en maak dingen kapot”. “Het is onmogelijk om veilige checks and balances te hebben en zo snel te handelen”, zei Borish.
Maak je geen zorgen: de medewerker achter het lek is niet ontslagen. “Het was een eerlijke fout”, zei Cherny schreef. “Het gebeurt.”

