Anthropic zette vorige week de hele technologiewereld onder de aandacht met een ongekende aankondiging: het maakte een AI-model zo geavanceerd dat het te gevaarlijk was om aan het publiek vrij te geven. Anthropic zei dat het nieuwe grenstaalmodel: Claude Mythos-previewzou ‘de cyberbeveiliging opnieuw vormgeven’.
Anthropic kondigde ook de oprichting van Project Glasswingeen groep organisaties die alleen op uitnodiging toegankelijk zijn – waaronder enkele van de grootste concurrenten van Anthropic – om Claude Mythos Preview te testen en hun infrastructuur te beveiligen.
Antropisch zei dat Claude Mythos-preview “Ik heb duizenden zeer ernstige kwetsbaarheden gevonden, waaronder enkele in elk belangrijk besturingssysteem en webbrowser.” (Nadruk in origineel.) Het bedrijf zei dat Project Glasswing noodzakelijk was “om de meest kritische software ter wereld te helpen beveiligen.”
Tegen vrijdag, Dat meldt CNBC dat voorzitter Jerome Powell van de Federal Reserve en minister van Financiën Scott Bessent de hogepriesters van de financiële sector (ook wel CEO’s van de banken genoemd) hadden bijeengeroepen voor een spoedvergadering over het nieuwe model. New York Times schrijver Thomas Friedman maakte zich zorgen over een ‘angstaanjagende’ toekomst waarin elke tiener gewapend met Claude het lokale elektriciteitsnet zou kunnen hacken.
De reactie op Claude Mythos Preview splitste zich snel op langs voorspelbare lijnen. AI-boosters noemden het nieuwe model het bewijs dat kunstmatige algemene intelligentie (AGI) nabij was, en prezen Anthropic omdat het het zo verantwoord uitrolde.
Critici en AI-sceptici noemden Project Glasswing een grote publiciteitsstunt.
Dus, wat is het?
Om hier achter te komen heeft Mashable de claims van Anthropic beoordeeld en gesproken met AI- en cybersecurity-experts.
Wat is Claude Mythos Preview?
Claude Mythos is een nieuw groottaalmodel dat volgens Anthropic aanzienlijk beter presteert dan Claude Opus 4.6, dat algemeen wordt beschouwd als een van de beste AI-modellen ter wereldvooral op het gebied van cyberbeveiliging.
“Tijdens onze tests heeft Claude Mythos Preview een opvallende sprong voorwaarts in cybercapaciteiten laten zien ten opzichte van eerdere modellen, inclusief de mogelijkheid om zero-day-kwetsbaarheden in grote besturingssystemen en webbrowsers autonoom te ontdekken en te exploiteren”, aldus de Claude Mythos systeemkaart.
Is Claude Mythos een teken van AGI?
Kunstmatige algemene intelligentie verwijst naar superintelligente AI die beter kan presteren dan mensen bij een breed scala aan taken. Het is niet overdreven om te zeggen dat onze hele economie eromheen is georganiseerd de zoektocht naar AGIterwijl Anthropic, Google, Meta, xAI en OpenAI honderden miljarden dollars in een nieuwe wapenwedloop steken.
Als Claude Mythos zo capabel is als Anthropic zegt, zou het dan een voorbeeld zijn van AGI? De modelkaart beantwoordt deze vraag rechtstreeks, en Anthropic lijkt te denken dat het dicht bij AGI ligt.
In een paragraaf over de veiligheidsrisico’s van Claude Mythos schrijft Antropic: “De huidige risico’s blijven laag. Maar we zien waarschuwingssignalen dat het laag houden ervan een grote uitdaging zou kunnen zijn als de capaciteiten zich snel blijven ontwikkelen (bijvoorbeeld tot het punt van sterk bovenmenselijke AI-systemen).” Uiteraard heeft Anthropic een sterke financiële prikkel om dit geloof te promoten.
Dit diagram laat zien hoe Mythos zich verhoudt tot eerdere Anthropic-modellen op het gebied van de ECI-score, waarbij meerdere benchmarks in één worden gecombineerd.
Krediet: antropisch
Uiteindelijk is de modelkaart voor Claude Mythos conservatiever dan de reactie online doet vermoeden.
Terwijl bijvoorbeeld de Claude Mythos-modelkaart doet laten zien dat dit model boven de trendlijn presteert van eerdere Anthropic-modellen, zegt Anthropic niet tekenen vertonen van zelfverbetering of recursieve groei. (“De winst die we kunnen identificeren is met zekerheid toe te schrijven aan menselijk onderzoek, niet aan AI-hulp.”)
Redenen om te denken dat Project Glasswing een publiciteitsstunt is
Laat me niet op mijn bord tikken: “(Wanneer) een AI-verkoper je vertelt dat AI een niet te stoppen technologie is die de wereld verandert in de orde van de landbouwrevolutie… moet je deze voorspelling nemen voor wat het is: een verkooppraatje.”
Ik heb die waarschuwende woorden erin geschreven reactie op een essay van Anthropic CEO Dario Amodei dat waarschuwde voor de potentieel cataclysmische gevaren van AI. Anthropic heeft ook een geschiedenis van het geven van ernstige waarschuwingen over zijn AI-modellen.
Misschien herinnert u zich het verhaal van het antropische model dat probeerde de CEO van een bedrijf te ‘chanteren’ om te voorkomen dat deze zou worden uitgeschakeld. In werkelijkheid Anthropic ontwierp een testomgeving waar chantage een mogelijke uitkomst was. Dit lijkt misschien meer op digitale beknelling dan op echt modelwangedrag.
Is Claude Mythos het nieuwste voorbeeld van het Chicken Little-probleem in de sector?
Op X somde AI-veiligheidsingenieur Heidy Khlaaf een aantal open vragen op die twijfel doen rijzen over de beweringen van Anthropic.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
Anthropic zei dat de preview van Claude Mythos duizenden zero-day-kwetsbaarheden heeft gevonden. Maar Khlaaf zegt dat Anthropic de belangrijkste feiten heeft weggelaten die nodig zijn om deze bewering te beoordelen: het aantal valse positieven, hoe Claude Mythos zich verhoudt tot bestaande cyberbeveiligingstools en hoeveel handmatige menselijke beoordeling er precies nodig was.
Mashbare lichtsnelheid
“Het vrijgeven van een marketingpost met doelbewust vage taal die duidelijk het bewijs verhult dat nodig is om de beweringen van Anthropic te onderbouwen, doet twijfel rijzen over de vraag of ze verdere investeringen proberen binnen te halen”, vertelde Khlaaf aan Mashable. “Het dient ook hun ‘veiligheid eerst’-imago, omdat ze in staat zijn het gebrek aan publieke vrijgave, zelfs een beperkte voor onafhankelijke evaluatie, te framen als een openbare dienst, terwijl het zelfs de mogelijkheden van experts om hun beweringen te valideren eenvoudigweg verdoezelt.”
We hebben herhaaldelijk contact opgenomen met Anthropic over deze zorgen, maar het bedrijf reageerde niet. We zullen dit artikel bijwerken als dit het geval is. In de Claude Mythos-systeemkaart schreef Anthropic dat er de komende weken meer gegevens zullen worden vrijgegeven naarmate de bugs die Mythos heeft gevonden, worden gepatcht en opgelost.
Gary Marcus, een AI-expert, auteur en bekend criticus van de LLM-hypemachine, vertelde Mashable aanvankelijk dat het te vroeg was om te weten of Claude Mythos een nieuw soort bedreiging vertegenwoordigde.
Maar Marcus is sceptischer geworden sinds we hem spraken, en hij onlangs ook schreef op X dat Mythos “lang niet zo eng” was als het eerst leek. “Mensen, jullie kunnen ontspannen. Mythos is geen exponentiële winst die buiten de trend ligt”, zegt hij schreef.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
Cybersecurity-experts vertelden Mashable dat het ook zeer onwaarschijnlijk is dat Claude Mythos kan worden gebruikt om “het licht uit te doen” of om kritieke infrastructuur plat te leggen.
“Beweringen over catastrofaal gebruik van Mythos miskennen ook aanzienlijk de dreigingsmodellen, cyberveiligheidsrisico’s en het vermogen om deze risico’s te verspreiden op een manier die daadwerkelijk zou kunnen leiden tot veiligheidskritische incidenten,” vertelde Khlaaf ons. “Het is niet zo simpel als een model vragen ‘hack dit systeem’, met dat van Anthropic technische blogpost het aantonen van een vereiste expertise die Anthropic bagatelliseert in hun marketingposten.”
Andere experts waren sceptisch, maar erkenden ook dat Mythos een reëel risico vertegenwoordigt, wat Marcus ook heeft gezegd.
“Je zou kunnen zeggen dat er geen openbare aankondiging nodig was”, zei hij Afd. Gargeen Stanford AI-onderzoeker en oprichter van AGI, Inc.
“Maar uiteindelijk is de beslissing om de toegang te beperken tot alleen degenen die kritieke software ontwikkelen en onderhouden precies wat je wilt dat een bedrijf in een dergelijk scenario doet. Het is gemakkelijk om de beperkte toegang te bekritiseren, maar er zouden slechtere resultaten ontstaan als ze deze ongecontroleerd zouden vrijgeven.”
Tal Kollender, oprichter en CEO van cyberbeveiligingsbedrijf Remedievertelde Mashable dat tools als Claude Mythos gevaarlijk zijn omdat ze ontdekkingen kunnen misbruiken.
“Het is briljant bedrijfstheater”, zei Kolender. “Een model bestempelen als ’te gevaarlijk om aan het publiek bekend te maken’ is zeker marketingflexibiliteit, omdat het onmiddellijk mystiek creëert en een enorme macht aan investeerders signaleert. Maar onder de PR-stunt schuilt een zeer reële, zeer alledaagse waarheid… De cyberbeveiligingsindustrie heeft eigenlijk geen ‘vindingsprobleem’. We verdrinken al in tools die kwetsbaarheden detecteren. Wat Mythos doet, is dat ontdekkingsproces op een ongekende schaal automatiseren.”
TL;DR: Een week na de onthulling van Claude Mythos Preview lijken enkele van de grootste beweringen van Anthropic over het model een stuk schetsmatiger, zeggen experts. Ze erkennen echter ook dat Claude Mythos en andere soortgelijke tools een reëel risico vormen.
Toch zijn er tal van zeer geldige redenen om nerveus te zijn over het nieuwe grensmodel.
Redenen om aan Claude Mythos Preview te denken is een reële bedreiging voor de mondiale cyberveiligheid
In de New York Timestovert auteur Thomas Friedman regelrecht een scenario tevoorschijn Oorlogsspelenwaar een tiener na schooltijd het lokale elektriciteitsnet hackt.
Dat scenario lijkt een week later nog vergezochter. Maar hier is een veel waarschijnlijker scenario: een geavanceerde groep hackers gebruikt een tool als Claude Mythos om zero-day-kwetsbaarheden in onze digitale infrastructuur te vinden, waardoor aanvallen sneller worden gelanceerd dan organisaties kunnen reageren.
En dat scenario zou u zorgen moeten baren.
Als Claude Mythos niet de tool is die dit kan, zijn de meeste experts het erover eens dat een dergelijke tool niet ver weg is.
En sommige van ’s werelds toonaangevende cyberbeveiligingsexperts lijken zich zeker zorgen te maken.
“Ik heb de afgelopen weken (bij Claude Mythos) meer bugs gevonden dan in de rest van mijn hele leven samen”, zegt Nicholas Carlini, een onderzoeker verbonden aan Anthropic en Google DeepMind, in een video over de Project Glasswing-website.
“Op Linux hebben we een aantal kwetsbaarheden gevonden waarbij ik, als gebruiker zonder rechten, mezelf tot beheerder kan verheffen door gewoon een binair bestand op mijn machine te draaien”, aldus Carlini.
Deze week is de AI-beveiligingsinstituut publiceerde zijn bevindingen over de capaciteiten van Claude Mythos, en het biedt een onafhankelijke bevestiging dat het een echte sprong voorwaarts betekent.

De AISI is een onderzoeksorganisatie binnen de afdeling wetenschap en technologie van de Britse overheid.
Krediet: AISI
Claude Mythos slaagde voor cyberbeveiligingstests die geen enkel ander model ooit had voltooid en scoorde op vrijwel elke test hoger dan enig ander grensmodel.
“Onze tests laten zien dat Mythos Preview systemen met een zwakke beveiligingspositie kan exploiteren, en het is waarschijnlijk dat er meer modellen met deze mogelijkheden zullen worden ontwikkeld”, concludeerde AISI.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
AISI identificeerde ook enkele beperkingen bij Claude Mythos, die de effectiviteit ervan in realistische scenario’s zouden aantasten.
Dus, was de uitrol van Mythos door Anthropic verantwoord AI-beheer of egoïstische marketing? Deskundigen met wie ik sprak, zeiden dat deze opties elkaar niet uitsluiten.
“Ik zou zeggen dat het allebei is, en dat is geen kritiek”, zei Xu. “Elke grote platformuitrol in dit tijdperk zal er voor verschillende doelgroepen anders uitzien, afhankelijk van hun spreekvaardigheid en hun angsttolerantie. Waar het mij om gaat is of de bedoeling echt is, en het bewijs dat ik van Anthropic heb gezien suggereert dat dit meestal zo is.”
Zoals vaak het geval is met angstaanjagende AI-voorpagina’s, bleek de realiteit ingewikkelder te zijn.
“Persoonlijk ga ik niet naar bed om me zorgen te maken over een kind met Mythos dat het elektriciteitsnet hackt, maar dat betekent niet dat de zorg fictief is”, zei hij. Hoeie XuGen’s Chief AI & Innovation Officer. “We bevinden ons op een keerpunt waar de creatieve en collaboratieve voordelen van deze tools enorm zijn, en de beveiligingsinfrastructuur heeft dat nog niet ingehaald. Die kloof is precies wat mij bezig houdt. Zelfs een fractie van de kans op een ernstig incident is te groot. Daarom is het opbouwen van een vertrouwens- en veiligheidslaag in het agententijdperk mijn uiterste focus.”
Ten slotte zullen dit soort tools, zoals Anthropic benadrukt in de Claude Mythos-modelkaart, op de lange termijn waarschijnlijk meer voordeel opleveren voor cybersecurity-verdedigers dan voor hackers. En op de korte termijn kan een voorzichtigere aanpak – zoals de aanpak die wordt gemodelleerd met Project Glasswing – gerechtvaardigd zijn.
TL;DR: Claude Mythos beschikt over formidabele codeervaardigheden op het gebied van cyberbeveiliging en vormt een reële bedreiging. Als hackers echter toegang hebben tot AI-tools zoals Claude Mythos, zullen de organisaties die zich tegen dergelijke aanvallen verdedigen dat ook hebben.
Onderwerpen
Kunstmatige intelligentie


