De Chinese AI-startup Zhupai, ook bekend als z.ai, is deze week terug met een oogverblindend nieuw grensoverschrijdend groottaalmodel: GLM-5.
Het is het nieuwste in de doorlopende en voortdurend indrukwekkende GLM-serie van z.ai, heeft een open source MIT-licentie – perfect voor implementatie in ondernemingen – en bereikt, als een van de opmerkelijke prestaties, een record-laag hallucinatiepercentage op de onafhankelijke markt. Kunstmatige analyse-intelligentie-index v4.0.
Met een score van -1 op de AA-Omniscience Index – wat neerkomt op een enorme verbetering van 35 punten ten opzichte van zijn voorganger – leidt GLM-5 nu de hele AI-industrie, inclusief Amerikaanse concurrenten als Google, OpenAI en Anthropic, op het gebied van kennisbetrouwbaarheid door te weten wanneer je je moet onthouden in plaats van informatie te verzinnen.
Naast zijn redeneervermogen is GLM-5 gebouwd voor hoogwaardig kenniswerk. Het beschikt over native “Agent Mode”-mogelijkheden waarmee het onbewerkte aanwijzingen of bronmateriaal rechtstreeks kan omzetten in professionele kantoordocumenten, inclusief kant-en-klare documenten. .docx, .pdfEn .xlsx bestanden.
Of het nu gaat om het genereren van gedetailleerde financiële rapporten, sponsorvoorstellen voor middelbare scholen of complexe spreadsheets, GLM-5 levert resultaten in real-world formaten die rechtstreeks in bedrijfsworkflows kunnen worden geïntegreerd.
Het is ook disruptief geprijsd op ongeveer $0,80 per miljoen input tokens en $2,56 per miljoen output tokens, ongeveer 6x goedkoper dan eigen concurrenten zoals Claude Opus 4.6, waardoor state-of-the-art agentic engineering kosteneffectiever is dan ooit tevoren. Dit is wat besluitvormers in ondernemingen nog meer moeten weten over het model en de training ervan.
Technologie: schaalvergroting voor agentische efficiëntie
De kern van GLM-5 is een enorme sprong in ruwe parameters. Het model schaalt van de 355B-parameters van GLM-4.5 naar maar liefst 744B-parameters, met 40B actief per token in de Mixture-of-Experts (MoE)-architectuur. Deze groei wordt ondersteund door een toename van pre-trainingsgegevens naar 28,5T tokens.
Om trainingsinefficiënties van deze omvang aan te pakken, ontwikkelde Zai “slijm,” een nieuwe infrastructuur voor asynchrone versterkingsleren (RL).
Traditionele RL heeft vaak last van ‘long-tail’-knelpunten; Slime doorbreekt deze lockstep door trajecten onafhankelijk te laten genereren, waardoor de fijnmazige iteraties mogelijk worden die nodig zijn voor complex agentengedrag.
Door optimalisaties op systeemniveau zoals Active Partial Rollouts (APRIL) te integreren, pakt slime de generatieknelpunten aan die doorgaans meer dan 90% van de RL-trainingstijd in beslag nemen, waardoor de iteratiecyclus voor complexe agentische taken aanzienlijk wordt versneld.
Het ontwerp van het raamwerk is gecentreerd op een tripartiet modulair systeem: een krachtige trainingsmodule aangedreven door Megatron-LM, een uitrolmodule die gebruik maakt van SGLang en aangepaste routers voor het genereren van gegevens met hoge doorvoer, en een gecentraliseerde gegevensbuffer die snelle initialisatie en uitrolopslag beheert.
Door adaptieve, verifieerbare omgevingen en multi-turn compilatie-feedbacklussen mogelijk te maken, biedt slime de robuuste basis met hoge doorvoer die nodig is om AI over te zetten van eenvoudige chat-interacties naar rigoureuze systeemtechniek met een lange horizon.
Om de implementatie beheersbaar te houden, integreert GLM-5 DeepSeek Sparse Attention (DSA), waardoor een contextcapaciteit van 200K behouden blijft en de kosten drastisch worden verlaagd.
Kenniswerk van begin tot eind
Zai presenteert GLM-5 als een ‘kantoortool’ voor het AGI-tijdperk. Terwijl eerdere modellen zich op fragmenten concentreerden, is GLM-5 gebouwd om kant-en-klare documenten te leveren.
Het kan prompts autonoom omzetten in geformatteerde .docx-, .pdf- en .xlsx-bestanden, variërend van financiële rapporten tot sponsorvoorstellen.
In de praktijk betekent dit dat het model doelen op hoog niveau kan opsplitsen in uitvoerbare subtaken en ‘Agentic Engineering’ kan uitvoeren, waarbij mensen kwaliteitspoorten definiëren terwijl de AI de uitvoering afhandelt.
Hoge prestaties
Volgens de benchmarks van GLM-5 is het het nieuwe, krachtigste open source-model ter wereld Kunstmatige analysedie de Chinese rivaal overtreft Moonshot’s nieuwe Kimi K2.5 die slechts twee weken geleden werd vrijgegeven, waaruit blijkt dat Chinese AI-bedrijven bijna zijn ingehaald door hun eigen westerse rivalen, die over veel betere middelen beschikken.
Volgens z.ai’s eigen materialen die vandaag worden gedeeld, scoort GLM-5 bijna state-of-the-art op verschillende belangrijke benchmarks:
SWE-bank Geverifieerd: GLM-5 behaalde een score van 77,8, presteerde beter dan Gemini 3 Pro (76,2) en naderde Claude Opus 4.6 (80,9).
Verkoopbank 2: In een simulatie van het runnen van een bedrijf stond GLM-5 op nummer 1 onder de open-sourcemodellen met een eindsaldo van $ 4.432,12.
Naast prestaties ondermijnt GLM-5 op agressieve wijze de markt. Live op OpenRouter vanaf 11 februari 2026, kost het ongeveer $ 0,80 – $ 1,00 per miljoen inputtokens en $ 2,56 – $ 3,20 per miljoen outputtokens. Het valt in het middensegment vergeleken met andere toonaangevende LLM’s, maar op basis van zijn topprestaties is het wat je een ‘stelen’ zou kunnen noemen.
|
Model |
Invoer (per 1 miljoen tokens) |
Uitvoer (per 1 miljoen tokens) |
Totale kosten (1 miljoen in + 1 miljoen uit) |
Bron |
|
Qwen3 Turbo |
$ 0,05 |
$ 0,20 |
$ 0,25 |
|
|
Grok 4.1 Snel (redenering) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
Grok 4.1 Snel (niet redenerend) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
deepseek-chat (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
deepseek-reasoner (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
Gemini 3 Flash-voorbeeld |
$ 0,50 |
$ 3,00 |
$ 3,50 |
|
|
Kimi-k2.5 |
$ 0,60 |
$ 3,00 |
$ 3,60 |
|
|
GLM-5 |
$ 1,00 |
$ 3,20 |
$ 4,20 |
|
|
ERNIE 5.0 |
$ 0,85 |
$ 3,40 |
$ 4,25 |
|
|
Claude Haiku 4.5 |
$ 1,00 |
$ 5,00 |
$ 6,00 |
|
|
Qwen3-Max (23-01-2026) |
$ 1,20 |
$ 6,00 |
$ 7,20 |
|
|
Gemini 3 Pro (≤200K) |
$ 2,00 |
$ 12,00 |
$ 14,00 |
|
|
GPT-5.2 |
$ 1,75 |
$ 14,00 |
$ 15,75 |
|
|
Claude Sonnet 4.5 |
$ 3,00 |
$ 15,00 |
$ 18,00 |
|
|
Gemini 3 Pro (>200K) |
$ 4,00 |
$ 18,00 |
$ 22,00 |
|
|
Sluit werk 4.6 |
$ 5,00 |
$ 25,00 |
$ 30,00 |
|
|
GPT-5.2 Pro |
$ 21,00 |
$ 168,00 |
$ 189,00 |
Dit is ongeveer 6x goedkoper op input en bijna 10x goedkoper op output dan Claude Opus 4.6 ($5/$25). Deze release bevestigt de geruchten dat Zhipu AI achter “Pony Alpha” zat, een stealth-model dat eerder de codeerbenchmarks op OpenRouter verpletterde.
Ondanks de hoge benchmarks en lage kosten zijn echter niet alle vroege gebruikers enthousiast over het model, waarbij ze opmerken dat de hoge prestaties niet het hele verhaal vertellen.
Lukas Petersson, medeoprichter van de op veiligheid gerichte autonome AI-protocolstartup Andon Labs, merkte op X: “Na urenlang lezen van GLM-5 sporen: een ongelooflijk effectief model, maar veel minder situatiebewust. Bereikt doelen via agressieve tactieken, maar redeneert niet over de situatie of maakt geen gebruik van ervaring. Dit is eng. Zo krijg je een paperclip-maximizer.”
De “paperclip-maximizer” verwijst naar een hypothetische situatie beschreven door Oxford-filosoof Nick Bostrom in 2003waarin een AI of een andere autonome creatie per ongeluk leidt tot een apocalyptisch scenario of het uitsterven van de mens door een ogenschijnlijk goedaardige instructie te volgen – zoals het maximaliseren van het aantal geproduceerde paperclips – in extreme mate, waarbij alle middelen die nodig zijn voor menselijk (of ander leven) opnieuw worden gebruikt of anderszins het leven onmogelijk wordt gemaakt door zijn toewijding aan het vervullen van het ogenschijnlijk goedaardige doel.
Moet uw onderneming GLM-5 adopteren?
Bedrijven die willen ontsnappen aan de lock-in van leveranciers zullen de MIT-licentie en beschikbaarheid van open-weights van GLM-5 een aanzienlijk strategisch voordeel vinden. In tegenstelling tot closed-source-concurrenten die informatie achter eigen muren houden, stelt GLM-5 organisaties in staat hun eigen intelligentie op grensniveau te hosten.
Adoptie verloopt niet zonder wrijving. De enorme schaal van GLM-5 (744B-parameters) vereist een enorme hardwarevloer die mogelijk onbereikbaar is voor kleinere bedrijven zonder significante cloud- of on-premise GPU-clusters.
Veiligheidsleiders moeten de geopolitieke implicaties van een vlaggenschipmodel van een in China gevestigd laboratorium afwegen, vooral in gereguleerde sectoren waar de locatie en herkomst van gegevens strikt worden gecontroleerd.
Bovendien introduceert de verschuiving naar meer autonome AI-agenten nieuwe bestuursrisico’s. Terwijl modellen van ‘chatten’ naar ‘werken’ gaan, beginnen ze autonoom tussen apps en bestanden te werken. Zonder de robuuste agent-specifieke machtigingen en mens-in-de-loop-kwaliteitspoorten die door bedrijfsdataleiders zijn ingesteld, neemt het risico op autonome fouten exponentieel toe.
Uiteindelijk is GLM-5 een ‘aankoop’ voor organisaties die de eenvoudige copiloten zijn ontgroeid en klaar zijn om een echt autonoom kantoor te bouwen.
Het is voor ingenieurs die een verouderde backend moeten herstructureren of een “zelfherstellende” pijplijn nodig hebben die niet slaapt.
Terwijl westerse laboratoria blijven optimaliseren voor ‘denken’ en redeneerdiepte, optimaliseert Zai voor uitvoering en schaal.
Bedrijven die vandaag de dag GLM-5 adopteren, kopen niet alleen een goedkoper model; ze wedden op een toekomst waarin de meest waardevolle AI degene is die het project kan voltooien zonder dat er twee keer om gevraagd wordt.



