De Chinese elektronica- en autofabrikant Xiaomi verraste vandaag de wereldwijde AI-gemeenschap met de release van MiMo-V2-Proeen nieuw parameterfunderingsmodel van 1 biljoen met benchmarks die die van de Amerikaanse AI-giganten OpenAI en Anthropic benaderen, maar tegen een zevende of zesde van de kosten bij toegang via een eigen API – en belangrijker nog, het heen en weer sturen van minder dan 256.000 tokens aan informatie.
Onder leiding van Fuli Luo, een veteraan van het ontwrichtende DeepSeek R1-project, vertegenwoordigt de release wat Luo typeert als een “stille hinderlaag” aan de mondiale grens. Bovendien verklaarde Luo in een X-bericht dat het bedrijf van plan is een modelvariant van deze nieuwste release open source te maken, “wanneer de modellen stabiel genoeg zijn om het te verdienen.”
Door zich te concentreren op de ‘actieruimte’ van intelligentie – van het genereren van code naar de autonome werking van digitale ‘klauwen’ – probeert Xiaomi het conversatieparadigma volledig te overstijgen.
Voorafgaand aan dit uitstapje naar grensverleggende AI vestigde het in Peking gevestigde Xiaomi zich als een titan van “The Internet of Things” en consumentenhardware.
Wereldwijd erkend als de op twee na grootste smartphonefabrikant ter wereld, besteedde Xiaomi begin jaren twintig aan een belangrijke entree in de autosector. Zijn elektrische voertuigen (EV’s), zoals de SU7 en de onlangs gelanceerde YU7 SUV, hebben het bedrijf veranderd in een verticaal geïntegreerde krachtpatser die hardware, software en nu ook geavanceerd redeneren kan combineren.
Deze stamboom in de techniek van de fysieke wereld vormt de basis voor de architectuur van MiMo-V2-Pro; het is gebouwd om het ‘brein’ van complexe systemen te zijn, of deze systemen nu mondiale toeleveringsketens beheren of door de ingewikkelde steigers van een autonoom codeermiddel navigeren.
Technologie: de architectuur van agency
De centrale uitdaging van het ‘Agent-tijdperk’ is het handhaven van een betrouwbare redenering over enorme hoeveelheden gegevens, zonder dat dit gepaard gaat met een onbetaalbare ‘intelligentiebelasting’ op het gebied van latentie of kosten. MiMo-V2-Pro pakt dit aan via een spaarzame architectuur: hoewel het in totaal 1T-parameters herbergt, zijn er slechts 42B actief tijdens een enkele voorwaartse doorgang, waardoor het ongeveer drie keer zo groot is als zijn voorganger, MiMo-V2-Flash.
De efficiëntie van het model is geworteld in een geëvolueerd hybride aandachtsmechanisme. Standaardtransformatoren worden doorgaans geconfronteerd met een kwadratische toename van de rekenvereisten naarmate de context groeit; MiMo-V2-Pro maakt gebruik van een hybride verhouding van 7:1 (verhoogd van 5:1 in de Flash-versie) om het enorme 1M-token-contextvenster te beheren. Door deze architecturale keuze kan het model een diep “geheugen” behouden van langlopende taken zonder de prestatieverslechtering die gewoonlijk wordt waargenomen bij grensverleggende modellen.
De analogie: Beschouw het model niet als een student die een boek pagina voor pagina leest, maar als een deskundige onderzoeker in een enorme bibliotheek. Dankzij de verhouding van 7:1 kan het model 85% van de gegevens “doorzoeken” op zoek naar context, terwijl er aandacht met hoge dichtheid wordt toegepast op de 15% die het meest relevant zijn voor de taak die voorhanden is.
Dit gaat gepaard met een lichtgewicht Multi-Token Prediction (MTP)-laag, waardoor het model kan anticiperen en meerdere tokens tegelijkertijd kan genereren, waardoor de latentie die nodig is voor de ‘denkfase’ van agentische workflows drastisch wordt verminderd. Volgens Luo werden deze structurele beslissingen maanden van tevoren genomen, met name om een ‘structureel voordeel’ te bieden voor de onverwachte snelheid waarmee de industrie naar agenten verschoof.
Product- en benchmarking: een reality check door derden
De interne gegevens van Xiaomi schetsen een beeld van een model dat uitblinkt in ‘real-world’ taken ten opzichte van synthetische benchmarks. Op GDPval-AA, een benchmark die de prestaties meet bij echte werktaken, behaalde MiMo-V2-Pro een Elo van 1426, waarmee het een voorsprong heeft op grote Chinese collega’s als GLM-5 (1406) en Kimi K2.5 (1283).
Hoewel het nog steeds achterblijft bij westerse ‘max effort’-modellen zoals Claude Sonnet 4.6 (1633) in rauwe Elo, vertegenwoordigt het de hoogst geregistreerde prestatie voor een model van Chinese oorsprong in deze categorie.
De externe benchmarkingorganisatie Kunstmatige analyse bevestigde deze beweringenwaardoor MiMo-V2-Pro op nummer 10 staat op zijn wereldwijde Intelligence Index met een score van 49. Dit plaatst het in hetzelfde niveau als GPT-5.2 Codex en vóór Grok 4.20 Beta. Deze resultaten suggereren dat Xiaomi met succes een model heeft gebouwd dat in staat is om op hoog niveau te redeneren dat nodig is voor engineering- en productietaken.
Belangrijke statistieken van Artificial Analysis benadrukken een aanzienlijke sprong ten opzichte van de vorige versie met open gewichten, MiMo-V2-Flash (die een score van 41 scoorde):
-
Hallucinatiepercentage: Het Pro-model verminderde het hallucinatiepercentage tot 30%, een scherpe verbetering ten opzichte van de 48% van het Flash-model.
-
Alwetendheidsindex: Het scoorde een +5, waarmee het voorsprong kreeg op GLM-5 (+2) en Kimi K2.5 (-8).
-
Token-efficiëntie: Om de volledige Intelligence Index uit te voeren had MiMo-V2-Pro slechts 77 miljoen uitvoertokens nodig, aanzienlijk minder dan GLM-5 (109 miljoen) of Kimi K2.5 (89 miljoen), wat wijst op een beknopter en efficiënter redeneerproces.
Xiaomi’s eigen grafieken benadrukken verder de mogelijkheden van “General Agent” en “Coding Agent”. Op ClawEval, een benchmark voor agentische scaffolds, scoorde het model een score van 61,5, waarmee het de prestaties van Claude Opus 4.6 (66,3) benaderde en aanzienlijk beter presteerde dan GPT-5.2 (50,0). In codeerspecifieke omgevingen zoals Terminal-Bench 2.0 behaalde het een 86,7, wat duidt op een hoge betrouwbaarheid bij het uitvoeren van opdrachten in een live terminalomgeving.
Hoe bedrijven MiMo-V2-Pro moeten evalueren voor gebruik
Voor de persona’s die worden geschetst in hedendaagse AI-organisaties – van infrastructuur tot beveiliging – vertegenwoordigt MiMo-V2-Pro een paradigmaverschuiving in de ‘prijs-kwaliteit’-curve.
Beslissers op het gebied van infrastructuur zullen MiMo-V2-Pro een overtuigende kandidaat vinden voor de Pareto-grens van intelligentie versus kosten. Artificial Analysis meldde dat het uitvoeren van hun index slechts $348 kostte voor MiMo-V2-Pro, vergeleken met $2.304 voor GPT-5.2 en $2.486 voor Claude Opus 4.6.
Voor organisaties die GPU-clusters of inkoop beheren, is de mogelijkheid om toegang te krijgen tot de top 10 van mondiale informatie tegen ongeveer een zevende van de kosten van westerse gevestigde exploitanten een krachtige stimulans voor testen op productieschaal.
Beslissers op het gebied van data kunnen het 1M-contextvenster gebruiken voor RAG-ready architecturen, waardoor ze volledige bedrijfscodebases of documentatiesets in één enkele prompt kunnen plaatsen zonder de fragmentatie die vereist is door kleinere contextmodellen.
Een beslisser op het gebied van systemen/orkestratie moet MiMo-V2-Pro beoordelen als een primair ‘brein’ voor coördinatie tussen meerdere agenten. Omdat het model is geoptimaliseerd voor OpenClaw en Claude Code, kan het lange horizonplanning en nauwkeurig gereedschapsgebruik aan zonder de constante menselijke tussenkomst die eerdere modellen teisterde.
De hoge ranking in GDPval-AA suggereert dat het bijzonder geschikt is voor de workflow- en orkestratielaag die nodig is om AI binnen de hele onderneming te schalen. Het maakt de creatie mogelijk van systemen die verder kunnen gaan dan eenvoudige automatisering en kunnen overstappen op complexe probleemoplossingen die uit meerdere stappen bestaan.
Veiligheidsbeslissers moeten echter voorzichtig zijn. De zeer ‘agentische’ aard die het model krachtig maakt (het vermogen om terminals te gebruiken en bestanden te manipuleren) vergroot de oppervlakte voor snelle injectie en ongeoorloofde modeltoegang.
Hoewel het lage hallucinatiepercentage (30%) een defensieve zegen is, betekent het gebrek aan publieke gewichten (in tegenstelling tot de Flash-versie) dat interne beveiligingsteams niet de diepgaande audits op ‘modelniveau’ kunnen uitvoeren die soms nodig zijn voor zeer gevoelige implementaties. Elke bedrijfsimplementatie moet gepaard gaan met robuuste monitoring- en controleerbaarheidsprotocollen.
Prijzen, beschikbaarheid en het pad voorwaarts
Xiaomi heeft MiMo-V2-Pro geprijsd om de ontwikkelaarsmarkt te domineren. De prijzen zijn gelaagd op basis van contextgebruik, met concurrerende tarieven voor caching ter ondersteuning van hoogfrequente redeneringstaken.
-
MiMo-V2-Pro (tot 256K): $1 per 1M invoertokens en $3 per 1M uitvoertokens
-
MiMo-V2-Pro (256K-1M): $2 per 1M invoertokens en $6 per 1M uitvoertokens
-
Cache lezen: $0,20 per 1 miljoen tokens voor het lagere niveau en $0,40 voor het hogere niveau
-
Cacheschrijf: Tijdelijk gratis ($0)
Hier ziet u hoe het zich verhoudt tot andere toonaangevende grensmodellen over de hele wereld:
Deze agressieve positionering is bedoeld om de applicatiestromen met hoge intensiteit die de volgende generatie software definiëren, aan te moedigen. Het model is momenteel alleen beschikbaar via Xiaomi’s eigen API, zonder huidige ondersteuning voor beeld- of multimodale invoer – een opmerkelijke omissie in een tijdperk van “Omni” -modellen, hoewel Xiaomi voor die behoeften een aparte MiMo-V2-Omni heeft geplaagd.
De “Hunter Alpha”-periode op OpenRouter bewees dat de markt grote behoefte heeft aan deze specifieke combinatie van efficiëntie en redenering. De filosofie van Fuli Luo – dat de onderzoekssnelheid wordt gevoed door ‘oprechte liefde voor de wereld waarvoor je bouwt’ – heeft geresulteerd in een model dat op de tweede plaats staat in China en op de achtste plaats wereldwijd op gevestigde inlichtingenindexen.
Of het een “stille” hinderlaag blijft of de basis wordt voor een wereldwijde herschikking van de AI-macht, hangt af van hoe snel ontwikkelaars de “actieruimte” over het “chatvenster” overnemen. Voorlopig heeft Xiaomi de doelpalen verplaatst: de vraag is niet langer alleen “kan het praten?” maar “kan het handelen?”


