Home Nieuws z.ai introduceert een sneller, goedkoper GLM-5 Turbo-model voor agenten en ‘klauwen’ –...

z.ai introduceert een sneller, goedkoper GLM-5 Turbo-model voor agenten en ‘klauwen’ – maar het is geen open source

5
0
z.ai introduceert een sneller, goedkoper GLM-5 Turbo-model voor agenten en ‘klauwen’ – maar het is geen open source

De Chinese AI-startup Z.ai, bekend om zijn krachtige, open source GLM-familie van grote taalmodellen (LLM’s), heeft dat gedaan introduceerde GLM-5-Turbo, een nieuwe, gepatenteerde variant van zijn open source GLM-5-model gericht op agentgestuurde workflows, waarbij het bedrijf het positioneert als een sneller model dat is afgestemd op Taken in OpenClaw-stijl zoals gereedschapsgebruik, uitvoering van lange ketens en voortdurende automatisering.

Het is nu beschikbaar via de Application Programming Interface (API) van Z.ai op een externe provider OpenRouter met een contextvenster van ongeveer 202,8K token, een maximale output van 131,1K en een vermelde prijs van $0,96 per miljoen inputtokens en $3,20 per miljoen outputtokens. Dat maakt het volgens onze berekeningen ongeveer $ 0,04 goedkoper per totale input- en outputkosten (bij 1 miljoen tokens) dan zijn voorganger.

Model

Invoer

Uitvoer

Totale kosten

Bron

Grok 4.1 Snel

$ 0,20

$ 0,50

$ 0,70

xAI

Gemini 3 Flitser

$ 0,50

$ 3,00

$ 3,50

Googlen

Kimi-K2.5

$ 0,60

$ 3,00

$ 3,60

Maanschot

GLM-5-Turbo

$ 0,96

$ 3,20

$ 4,16

OpenRouter

GLM-5

$ 1,00

$ 3,20

$ 4,20

Z.ai

Claude Haiku 4.5

$ 1,00

$ 5,00

$ 6,00

Antropisch

Qwen3-Max

$ 1,20

$ 6,00

$ 7,20

Alibaba-wolk

Tweeling 3 Pro

$ 2,00

$ 12,00

$ 14,00

Googlen

GPT-5.2

$ 1,75

$ 14,00

$ 15,75

Open AI

GPT-5.4

$ 2,50

$ 15,00

$ 17,50

Open AI

Claude Sonnet 4.5

$ 3,00

$ 15,00

$ 18,00

Antropisch

Sluit werk 4.6

$ 5,00

$ 25,00

$ 30,00

Antropisch

GPT-5.4Pro

$ 30,00

$ 180,00

$ 210,00

Open AI

Ten tweede voegt Z.ai het model ook toe aan zijn GLM Coding-abonnementsproduct, de verpakte coderingsassistentservice. Die service heeft drie niveaus: Lite voor $ 27 per kwartaal, Pro voor $ 81 per kwartaal en Max voor $ 216 per kwartaal.

In de uitrolnota van Z.ai van 15 maart staat dat Pro-abonnees in maart GLM-5-Turbo krijgen, terwijl Lite-abonnees in maart de basis-GLM-5 krijgen en tot april moeten wachten op GLM-5-Turbo. Het bedrijf neemt ook applicaties voor vroege toegang voor bedrijven via een Google-formulierwat suggereert dat sommige gebruikers mogelijk eerder toegang krijgen dan dat schema, afhankelijk van de capaciteit.

z.ai beschrijft GLM-5-Turbo als ontworpen voor “snelle inferentie” en “diep geoptimaliseerd voor real-world agentworkflows met lange uitvoeringsketens”, met verbeteringen in de complexe ontleding van instructies, het gebruik van tools, geplande en aanhoudende uitvoering en stabiliteit bij uitgebreide taken.

De release biedt ontwikkelaars een nieuwe optie voor het bouwen van autonome AI-agents in OpenClaw-stijl, en dient als een signaal over waar modelleveranciers denken dat de bedrijfsvraag naartoe gaat: weg van chatinterfaces en naar systemen die betrouwbaar meerstapswerk kunnen uitvoeren.

Dat is nu waar een groot deel van de concurrentie zich ook verplaatst, vooral onder leveranciers die ontwikkelaars en bedrijfsteams proberen te winnen die interne assistenten, workflow-orkestrators en codeeragenten bouwen.

Gebouwd voor uitvoering, niet alleen voor conversatie

De materialen van Z.ai omlijsten GLM-5-Turbo als een model voor productie-achtig agentgedrag in plaats van statisch prompt-respons-gebruik.

De pitch draait om betrouwbaarheid in praktische taakstromen: betere opdrachtvolging, sterkere aanroep van tools, verbeterde afhandeling van geplande en persistente taken, en snellere uitvoering over langere logische ketens. Door deze positionering wordt het model duidelijk in de markt gezet voor agenten die meer doen dan alleen vragen beantwoorden.

Het is gericht op systemen die informatie kunnen verzamelen, tools kunnen oproepen, instructies kunnen opsplitsen en complexe takenreeksen kunnen blijven uitvoeren met minder toezicht.

In plaats van een eenvoudige opvolger van GLM-5 lijkt GLM-5-Turbo een meer uitvoeringsgerichte variant te zijn: afgestemd op snelheid, gereedschapsgebruik en lange-keten agentstabiliteit, terwijl de basis GLM-5 Z.ai’s bredere open-source vlaggenschip blijft.

GLM-5-Turbo lijkt vooral competitief in OpenClaw-scenario’s zoals het zoeken en verzamelen van informatie, kantoor- en dagelijkse taken, data-analyse, ontwikkeling en operaties, en automatisering. Dit zijn door het bedrijf geleverde materialen, geen onafhankelijke validatie, maar ze maken de beoogde productpositionering duidelijk.

Achtergrond: z.ai en GLM-5 vormen de basis voor Turbo

Z.ai – voorheen Zhipu AI – werd in 2019 opgericht als een spin-off van de Tsinghua Universiteit in Beijing en is nu een van China’s bekendste stichtingsmodelbedrijven. Het bedrijf blijft gevestigd in Peking en wordt geleid door CEO Zhang Peng

Z.ai is op 8 januari 2026 genoteerd aan de Hong Kong Stock Exchange, met aandelen geprijsd op HK $ 116,20 en geopend op HK $ 120, voor een aangegeven marktkapitalisatie van HK $ 52,83 miljard, waarmee het China’s grootste onafhankelijke ontwikkelaar van grote taalmodellen is.

Op 30 september 2025 waren de modellen naar verluidt gebruikt door meer dan 12.000 zakelijke klanten, meer dan 80 miljoen eindgebruikersapparaten en meer dan 45 miljoen ontwikkelaars wereldwijd.

Z.ai’s laatste grote release, GLM-5dat in februari 2026 debuteerde, geeft nuttige context voor wat het bedrijf nu probeert te doen met GLM-5-Turbo.

GLM-5 is een open-source vlaggenschipmodel met een MIT-licentie, een record-lage hallucinatiescore op de AA-Omniscience Index, en debuteerde met een native “Agent Mode” die aanwijzingen of bronmateriaal kon omzetten in kant-en-klare .docx-, .pdf- en .xlsx-bestanden.

Die eerdere release werd ook gezien als een grote technische stap voorwaarts voor het bedrijf. GLM-5 schaalde op naar 744 miljard parameters met 40 miljard actieve per token in een mix van experts-architectuur, gebruikte 28,5 biljoen pretraining-tokens en vertrouwde op een nieuwe asynchrone versterkings-leerinfrastructuur genaamd ‘slime’ om trainingsknelpunten te verminderen en complexer agentengedrag te ondersteunen.

In dat licht lijkt GLM-5-Turbo minder op een vervanger voor GLM-5 dan op een smallere commerciële uitloper: een variant die de lange context, agentische oriëntatie van de vlaggenschiplijn behoudt, maar de nadruk legt op snelheid, stabiliteit en uitvoering in echte agentenketens.

Ontwikkelaarsfuncties en modelverpakking

Aan de technische kant heeft Z.ai de GLM-5-familie voorzien van het soort mogelijkheden dat ontwikkelaars nu verwachten van serieuze agent-facing modellen, waaronder lange contextafhandeling, tools, redeneerondersteuning en gestructureerde integraties.

De GLM-5-Turbo-pagina van OpenRouter geeft ondersteuning voor tools, toolkeuze en responsformattering, terwijl ook live prestatiegegevens naar boven komen, inclusief gemiddelde doorvoer en latentie.

De providertelemetrie van OpenRouter voegt een nuttige vergelijking op implementatieniveau toe tussen GLM-5 en GLM-5-Turbo, hoewel de gegevens niet perfect van appels tot appels zijn, omdat GLM-5 bij verschillende providers voorkomt, terwijl GLM-5-Turbo alleen via Z.ai wordt weergegeven.

Wat de doorvoersnelheid betreft, haalt GLM-5-Turbo gemiddeld 48 tokens per seconde op OpenRouter, wat hem onder de snelste GLM-5-eindpunten plaatst die in de schermafbeeldingen worden weergegeven, inclusief Fireworks met 70 tok/s en Friendli met 58 tok/s, maar boven de 40 tok/s van Together.

Op basis van de latentie van de eerste token is GLM-5-Turbo langzamer in de beschikbare gegevens, met een post van 2,92 seconden versus 0,41 seconden voor Friendli’s GLM-5-eindpunt, 1,00 seconde voor Parasail en 1,08 seconden voor DeepInfra.

Maar het beeld verbetert wat betreft de end-to-end doorlooptijd: GLM-5-Turbo wordt weergegeven op 8,16 seconden, sneller dan de GLM-5-eindpunten, die variëren van 9,34 seconden op Fireworks tot 11,23 seconden op DeepInfra.

Het meest opvallende operationele voordeel ligt in de betrouwbaarheid van het gereedschap. GLM-5-Turbo vertoont een foutenpercentage van 0,67%, aanzienlijk lager dan de getoonde GLM-5-providers, waar foutenpercentages variëren van 2,33% tot 6,41%.

Voor bedrijfsteams suggereert dit een model dat misschien niet wint op het gebied van initiële responsiviteit in de huidige OpenRouter-routering, maar nog steeds beter geschikt zou kunnen zijn voor langere agentruns waarbij voltooiingsstabiliteit en minder gereedschapsfouten belangrijker zijn dan het snelste eerste token.

Benchmarking en prijsbepaling

z.ai GLM-5 Turbo benchmarkinggrafiek. Krediet: z.ai

Een ZClawBench-radarkaart uitgegeven door z.ai toont aan dat GLM-5-Turbo bijzonder competitief is in OpenClaw-scenario’s zoals het zoeken en verzamelen van informatie, kantoor- en dagelijkse taken, data-analyse, ontwikkeling en operaties, en automatisering.

Dit zijn door het bedrijf geleverde benchmarkbeelden, geen onafhankelijke validatie, maar ze helpen wel verklaren hoe Z.ai wil dat de twee modellen worden begrepen: GLM-5 als het bredere coderings- en open vlaggenschip, en Turbo als de meer gerichte variant voor agentuitvoering.

Een genuanceerder licentiesignaal

Een opmerkelijk voorbehoud is licentieverlening. Z.ai zegt dat GLM-5-Turbo momenteel closed-source is, maar zegt ook dat de mogelijkheden en bevindingen van het model zullen worden opgenomen in de volgende open-source modelrelease. Dat is een belangrijk onderscheid. Het bedrijf belooft niet duidelijk dat het GLM-5-Turbo zelf zal opensourcen.

In plaats daarvan wordt gezegd dat de lessen, technieken en verbeteringen uit deze release een toekomstig open model zullen vormen. Dat maakt de lancering genuanceerder dan een zuivere breuk met openheid.

De eerdere GLM-strategie van Z.ai leunde zwaar op open releases en open-weight-distributie, waardoor de zichtbaarheid onder ontwikkelaars werd vergroot.

De Chinese AI-markt is mogelijk aan het herbalanceren, weg van open source

De licentiepositie van GLM-5-Turbo komt ook terecht in een bredere Chinese marktcontext, waardoor de lancering opmerkelijker is dan een simpele productupdate.

De afgelopen weken heeft de berichtgeving rond Alibaba’s Qwen-eenheid nieuwe vragen opgeroepen over hoe de toonaangevende AI-laboratoria van China openlijke releases in evenwicht zullen brengen met commerciële druk.

Eerder deze maand, Qwen-divisiehoofd Lin Junyang trad afwaarmee hij de derde senior Qwen-manager wordt die in 2026 vertrekt, ook al blijft de Qwen-familie van Alibaba een van de meest productieve open-modelinspanningen waar dan ook, met meer dan 400 open-sourcemodellen die sinds 2023 zijn uitgebracht en meer dan 1 miljard downloads.

Dat meldde Reuters vervolgens op 16 maart zou Eddie Wu, CEO van Alibaba, de directe controle overnemen van een nieuw gevormde, op AI gerichte businessgroep die Qwen en andere eenheden consolideert, te midden van onderzoek naar strategie, winstgevendheid en de meedogenloze prijsconcurrentie rond open-modelaanbiedingen in China.

Zelfs zonder deze ontwikkelingen te overdrijven, dragen ze bij aan het kaderen van de bredere vraag die boven de sector hangt: of de economie van grensverleggende AI zelfs historisch open-leunende Chinese laboratoria in de richting van een meer gesegmenteerde strategie begint te duwen.

Dat betekent niet dat Chinese laboratoria open source achterwege laten. Maar het patroon wordt steeds moeilijker te negeren: open modellen helpen de adoptie, de goodwill van ontwikkelaars en het bereik van het ecosysteem te stimuleren, terwijl bepaalde hoogwaardige varianten gericht op bedrijfsagenten, codeerworkflows en andere commercieel aantrekkelijke gebruiksscenario’s steeds vaker als propriëtaire producten op de markt kunnen komen.

In die zin past GLM-5-Turbo in een grotere mogelijke verschuiving in de Chinese AI-markt, een die steeds meer lijkt op het draaiboek dat door OpenAI, Anthropic en Google in de VS wordt gebruikt: openheid als distributie, propriëtaire systemen als business.

In dat licht bezien lijkt GLM-5-Turbo meer dan een op snelheid gerichte productupdate. Het zou een nieuw teken kunnen zijn dat delen van de Chinese AI-sector op weg zijn naar hetzelfde hybride model dat al gebruikelijk is in de VS: openheid als distributie, propriëtaire systemen als business.

Dat zou niet het einde betekenen van de open-source AI van Chinese laboratoria, maar het zou wel kunnen betekenen dat hun meest strategisch belangrijke, op agenten gerichte aanbod eerst achter gesloten toegang verschijnt, zelfs als een deel van hun onderliggende ontwikkelingen later hun weg vinden naar open releases.

Voor ontwikkelaars die agentplatforms evalueren, is GLM-5-Turbo zowel een productlancering als een nuttig signaal. Z.ai spreekt nog steeds de taal van open modellen. Maar met deze release laat het ook zien dat een deel van het commercieel meest relevante werk mogelijk als eerste zal verschijnen als eigen infrastructuur voor agentsystemen op bedrijfsniveau.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in