Chinese AI-startup MiniMaxmet hoofdkantoor in Shanghai, heeft vandaag schokgolven door de AI-industrie gestuurd met de release van zijn nieuwe M2.5 taalmodel in twee varianten, die beloven hoogwaardige kunstmatige intelligentie zo goedkoop te maken dat u zich misschien helemaal geen zorgen meer hoeft te maken over de rekening.
Er wordt ook gezegd dat “open bron,” hoewel de gewichten (instellingen) en code nog niet zijn gepost, noch het exacte licentietype of de exacte voorwaarden. Maar dat doet er bijna niet toe, gezien hoe goedkoop MiniMax het aanbiedt via zijn API en die van partners.
De afgelopen paar jaar was het gebruik van de krachtigste AI ter wereld net zoiets als het inhuren van een dure consultant: het was briljant, maar je keek voortdurend naar de klok (en het aantal tokens). M2.5 verandert die wiskunde, de kosten van de grens met maar liefst 95% verlagen.
Door prestaties te leveren die kunnen wedijveren met de topmodellen van Google en Anthropic, tegen een fractie van de kosten, met name bij het gebruik van agentische tools voor bedrijfstaken, waaronder het maken van Microsoft Word-, Excel- en PowerPoint-bestandenMiniMax gokt erop dat de toekomst niet alleen gaat over hoe slim een model is, maar ook over hoe vaak je het je kunt veroorloven om het te gebruiken.
Om dit doel te bereiken zegt MiniMax dat het “samen met senior professionals op terreinen als financiën, recht en sociale wetenschappen” heeft samengewerkt om ervoor te zorgen dat het model echt werk kon verrichten volgens hun specificaties en normen.
Deze release is belangrijk omdat het een verschuiving signaleert van AI als ‘chatbot’ naar AI als ‘werker’. Wanneer intelligentie ’te goedkoop wordt om te meten’, stoppen ontwikkelaars met het bouwen van eenvoudige vraag- en antwoordtools en beginnen ze met het bouwen van ‘agents’: software die urenlang autonoom complexe projecten kan coderen, onderzoeken en organiseren zonder veel geld uit te geven.
MiniMax heeft dit model zelfs al in zijn eigen activiteiten geïmplementeerd. Momenteel, 30% van alle taken op het hoofdkantoor van MiniMax wordt voltooid door M2.5en een onthutsend 80% van hun nieuw vastgelegde code wordt gegenereerd door M2.5!
Zoals het MiniMax-team schrijft in hun releaseblogpost: “wij geloven dat M2.5 vrijwel onbeperkte mogelijkheden biedt voor de ontwikkeling en werking van agenten in de economie.”
Technologie: schaarse macht en de doorbraak van CISPO
Het geheim van de efficiëntie van M2.5 ligt in de Mixture of Experts (MoE)-architectuur. In plaats van alle 230 miljard parameters uit te voeren voor elk afzonderlijk woord dat het genereert, ‘activeert’ het model er slechts 10 miljard. Hierdoor kan het de redeneerdiepte van een enorm model behouden, terwijl het beweegt met de behendigheid van een veel kleiner model.
Om dit complexe systeem te trainen heeft MiniMax een eigen Reinforcement Learning (RL)-framework ontwikkeld, genaamd Forge. MiniMax-ingenieur Olijflied vermeld op de ThursdAI-podcast op YouTube dat deze techniek een belangrijke rol speelde bij het opschalen van de prestaties, zelfs bij gebruik van het relatief kleine aantal parameters, en dat het model gedurende een periode van twee maanden werd getraind.
Forge is ontworpen om het model te helpen leren van ‘echte omgevingen’ – waarbij de AI in feite codering kan oefenen en tools kan gebruiken in duizenden gesimuleerde werkruimten.
“Wat we ons realiseerden is dat er veel potentieel is met een klein model als dit als we er versterkend leren op trainen met een groot aantal omgevingen en agenten”, zei Song. “Maar het is niet zo eenvoudig om te doen”, eraan toevoegend dat ze daar “veel tijd” aan besteedden.
Om het model tijdens deze intensieve training stabiel te houden, gebruikten ze een wiskundige aanpak genaamd CISPO (Clipping Importance Sampling Policy Optimization) en deelden ze de formule op hun blog.
Deze formule zorgt ervoor dat het model tijdens de training niet te veel corrigeert, waardoor het kan ontwikkelen wat MiniMax een “Architect Mindset” noemt. In plaats van meteen code te schrijven, heeft M2.5 geleerd om eerst de structuur, functies en interface van een project proactief te plannen.
State-of-the-art (en bijna) benchmarks
De resultaten van deze architectuur worden weerspiegeld in de nieuwste industrieklassementen. M2.5 is niet alleen verbeterd; het is doorgedrongen tot het hoogste niveau van codeermodellen en nadert het nieuwste model van Anthropic, Claude Opus 4.6, slechts een week geleden uitgebrachten laat zien dat Chinese bedrijven nu slechts enkele dagen verwijderd zijn van een inhaalslag op de veel beter uitgeruste (in termen van GPU’s) Amerikaanse laboratoria.
Hier zijn enkele van de nieuwe MiniMax M2.5 benchmark-hoogtepunten:
-
SWE-Bench geverifieerd: 80,2% — Komt overeen met Claude Opus 4.6-snelheden
-
BladerenComp: 76,3% — Toonaangevend zoek- en toolgebruik.
-
Multi-SWE-bank: 51,3% — SOTA bij meertalige codering
-
BFCL (gereedschapsoproep): 76,8% — Zeer nauwkeurige workflows voor agenten.
Op de ThursdAI-podcast wees gastheer Alex Volkov erop dat MiniMax M2.5 extreem snel werkt en daarom minder tokens gebruikt om taken te voltooien, in de orde van $ 0,15 per taak, vergeleken met $ 3,00 voor Claude Opus 4.6.
Het doorbreken van de kostenbarrière
MiniMax biedt via zijn API twee versies van het model aan, beide gericht op productie in grote volumes:
-
M2.5-Bliksem: Geoptimaliseerd voor snelheid en levert 100 tokens per seconde. Het kost $0,30 per 1M invoertokens en $2,40 per 1M uitvoertokens.
-
Standaard M2.5: Geoptimaliseerd voor de kosten, draait op 50 tokens per seconde. Het kost de helft van de Lightning-versie ($0,15 per 1 miljoen invoertokens / $1,20 per 1 miljoen uitvoertokens).
In gewone taal: MiniMax beweert dat je voor ongeveer $ 10.000 een heel jaar lang vier ‘agenten’ (AI-werkers) continu kunt laten werken.
Voor zakelijke gebruikers bedraagt deze prijs grofweg 1/10e tot 1/20e van de kosten van concurrerende eigen modellen zoals GPT-5 of Claude 4.6 Opus.
|
Model |
Invoer |
Uitvoer |
Totale kosten |
Bron |
|
Qwen3 Turbo |
$ 0,05 |
$ 0,20 |
$ 0,25 |
|
|
deepseek-chat (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
deepseek-reasoner (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
Grok 4.1 Snel (redenering) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
Grok 4.1 Snel (niet redenerend) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
MiniMax M2.5 |
$ 0,15 |
$ 1,20 |
$ 1,35 |
|
|
MiniMax M2.5-Bliksem |
$ 0,30 |
$ 2,40 |
$ 2,70 |
|
|
Gemini 3 Flash-voorbeeld |
$ 0,50 |
$ 3,00 |
$ 3,50 |
|
|
Kimi-k2.5 |
$ 0,60 |
$ 3,00 |
$ 3,60 |
|
|
GLM-5 |
$ 1,00 |
$ 3,20 |
$ 4,20 |
|
|
ERNIE 5.0 |
$ 0,85 |
$ 3,40 |
$ 4,25 |
|
|
Claude Haiku 4.5 |
$ 1,00 |
$ 5,00 |
$ 6,00 |
|
|
Qwen3-Max (23-01-2026) |
$ 1,20 |
$ 6,00 |
$ 7,20 |
|
|
Gemini 3 Pro (≤200K) |
$ 2,00 |
$ 12,00 |
$ 14,00 |
|
|
GPT-5.2 |
$ 1,75 |
$ 14,00 |
$ 15,75 |
|
|
Claude Sonnet 4.5 |
$ 3,00 |
$ 15,00 |
$ 18,00 |
|
|
Gemini 3 Pro (>200K) |
$ 4,00 |
$ 18,00 |
$ 22,00 |
|
|
Sluit werk 4.6 |
$ 5,00 |
$ 25,00 |
$ 30,00 |
|
|
GPT-5.2 Pro |
$ 21,00 |
$ 168,00 |
$ 189,00 |
Strategische implicaties voor ondernemingen en leiders
Voor technische leiders vertegenwoordigt M2.5 meer dan alleen een goedkopere API. Het verandert op dit moment het operationele draaiboek voor ondernemingen.
De druk om prompts om geld te besparen te ‘optimaliseren’ is verdwenen. U kunt nu modellen met een hoge context en een hoge redenering inzetten voor routinetaken die voorheen onbetaalbaar waren.
De snelheidsverbetering van 37% bij het voltooien van end-to-end taken betekent dat de ‘agentische’ pijplijnen die worden gewaardeerd door AI-orkestrators – waar modellen met andere modellen praten – eindelijk snel genoeg bewegen voor realtime gebruikerstoepassingen.
Bovendien suggereren de hoge scores van M2.5 op het gebied van financiële modellering (74,4% op MEWC) dat het met minimaal toezicht overweg kan met de ‘stilzwijgende kennis’ van gespecialiseerde sectoren zoals recht en financiën.
Omdat M2.5 is gepositioneerd als een open-sourcemodel, kunnen organisaties mogelijk intensieve, geautomatiseerde code-audits uitvoeren op een schaal die voorheen onmogelijk was zonder massale menselijke tussenkomst, en dat allemaal met behoud van een betere controle over de gegevensprivacy. Maar totdat de licentievoorwaarden en -gewichten zijn gepubliceerd, blijft dit slechts een bijnaam.
MiniMax M2.5 is een signaal dat de grens van AI niet langer alleen gaat over wie het grootste brein kan bouwen, maar wie van dat brein de nuttigste – en betaalbare – werknemer in de kamer kan maken.


