Home Nieuws Qwen3-Coder-Next biedt vibe-codeerders een krachtig open source, ultra-sparse model met 10x hogere...

Qwen3-Coder-Next biedt vibe-codeerders een krachtig open source, ultra-sparse model met 10x hogere doorvoer voor repo-taken

2
0
Qwen3-Coder-Next biedt vibe-codeerders een krachtig open source, ultra-sparse model met 10x hogere doorvoer voor repo-taken

Het Qwen-team van AI-onderzoekers van de Chinese e-commercegigant Alibaba is het afgelopen jaar uitgegroeid tot een van de wereldleiders op het gebied van open source AI-ontwikkeling. groot aantal krachtige grote taalmodellen en gespecialiseerde multimodale modellen die de prestaties van eigen Amerikaanse leiders zoals OpenAI, Anthropic, Google en xAI benaderen, en in sommige gevallen zelfs overtreffen.

Nu is het Qwen-team deze week weer terug met een meeslepende release die past bij de “vibe coding”-waanzin die de afgelopen maanden is ontstaan: Qwen3-Coder-Volgendeeen gespecialiseerd model met 80 miljard parameters, ontworpen om elite-agentische prestaties te leveren binnen een lichtgewicht actieve voetafdruk.

Het is uitgebracht onder een tolerante Apache 2.0-licentie, waardoor commercieel gebruik door zowel grote ondernemingen als indie-ontwikkelaars mogelijk is, met de modelgewichten beschikbaar op Hugging Face in vier varianten en een technisch rapport waarin enkele van zijn trainingsaanpak en innovaties worden beschreven.

De release markeert een grote escalatie in de wereldwijde wapenwedloop voor de ultieme codeerassistent, na een week waarin de ruimte explodeerde met nieuwe toetreders. Van de enorme efficiëntiewinsten van Anthropic’s Claude Code harnas naar de spraakmakende lancering van de OpenAI Codex-app en de snelle acceptatie door de gemeenschap van open-sourceframeworks zoals Open Klauwis het competitieve landschap nog nooit zo druk geweest.

In deze omgeving waarin veel op het spel staat, houdt Alibaba niet alleen gelijke tred, maar probeert het ook een nieuwe standaard te zetten voor open-weight intelligence.

Voor LLM-beslissers vertegenwoordigt Qwen3-Coder-Next een fundamentele verschuiving in de economie van AI-engineering. Hoewel het model in totaal 80 miljard parameters bevat, maakt het gebruik van een uiterst schaarse Mixture-of-Experts (MoE)-architectuur die slechts 3 miljard parameters per voorwaartse doorgang activeert.

Dankzij dit ontwerp kan het redeneervermogen leveren dat kan wedijveren met enorme propriëtaire systemen, terwijl de lage implementatiekosten en hoge doorvoer van een lichtgewicht lokaal model behouden blijven.

Het oplossen van het knelpunt in de lange context

De belangrijkste technische doorbraak achter Qwen3-Coder-Next is een hybride architectuur die speciaal is ontworpen om de problemen met kwadratische schaling te omzeilen waar traditionele Transformers last van hebben.

Naarmate contextvensters groter worden – en dit model ondersteunt maar liefst 262.144 tokens – worden traditionele aandachtsmechanismen computationeel onbetaalbaar.

Standaardtransformatoren hebben last van een “geheugenmuur” waarbij de kosten voor het verwerken van context kwadratisch toenemen met de lengte van de reeks. Qwen pakt dit aan door Gated DeltaNet te combineren met Gated Attention.

Gated DeltaNet fungeert als een lineair-complexiteitsalternatief voor standaard softmax-aandacht. Het stelt het model in staat om de toestand gedurende zijn kwart miljoen-token-venster te behouden zonder de exponentiële latentieboetes die typisch zijn voor redeneren met een lange horizon.

In combinatie met de ultra-spaarzame MoE is het resultaat een theoretisch 10x hogere doorvoer voor taken op repository-niveau vergeleken met compacte modellen met een vergelijkbare totale capaciteit.

Deze architectuur zorgt ervoor dat een agent een volledige Python-bibliotheek of een complex JavaScript-framework kan “lezen” en kan reageren met de snelheid van een 3B-model, maar toch met het structurele begrip van een 80B-systeem.

Om contexthallucinatie tijdens de training te voorkomen, maakte het team gebruik van Best-Fit Packing (BFP), een strategie die de efficiëntie handhaaft zonder de afkapfouten die voorkomen bij de traditionele aaneenschakeling van documenten.

Getraind om agent-first te zijn

De ‘Volgende’ in de nomenclatuur van het model verwijst naar een fundamentele spil in de trainingsmethodologie. Historisch gezien werden codeermodellen getraind op statische code-tekstparen – in wezen een ‘alleen-lezen’-opleiding. Qwen3-Coder-Next werd in plaats daarvan ontwikkeld via een enorme “agentic training” -pijplijn.

Het technische rapport beschrijft een synthesepijplijn die 800.000 verifieerbare codeertaken opleverde. Dit waren niet slechts fragmenten; het waren real-world scenario’s voor het oplossen van bugs, afgeleid van GitHub-pull-verzoeken en gecombineerd met volledig uitvoerbare omgevingen.

De trainingsinfrastructuur, bekend als MegaFlow, is een cloud-native orkestratiesysteem gebaseerd op Alibaba Cloud Kubernetes. In MegaFlow wordt elke agent-taak uitgedrukt als een workflow in drie fasen: agent-uitrol, evaluatie en nabewerking. Tijdens de uitrol werkt het model samen met een live gecontaineriseerde omgeving.

Als het code genereert die een unit-test niet doorstaat of een container laat crashen, ontvangt het onmiddellijke feedback via mid-training en versterkingsleren. Dankzij deze ‘closed-loop’-educatie kan het model leren van feedback uit de omgeving, waardoor het leert te herstellen van fouten en oplossingen in realtime te verfijnen.

Productspecificaties omvatten:

  • Ondersteuning voor 370 programmeertalen: Een uitbreiding van 92 in eerdere versies.

  • Hulpprogramma in XML-stijl: Een nieuw qwen3_coder-formaat ontworpen voor argumenten met veel tekenreeksen, waardoor het model lange codefragmenten kan uitzenden zonder de geneste aanhalingstekens en escape-overhead die typisch zijn voor JSON.

  • Focus op opslagplaatsniveau: Mid-training werd uitgebreid tot ongeveer 600 miljard tokens aan gegevens op repositoryniveau, wat een grotere impact bleek te hebben voor de afhankelijkheidslogica tussen bestanden dan alleen datasets op bestandsniveau.

Specialisatie via expertmodellen

Een belangrijke onderscheidende factor in de Qwen3-Coder-Next-pijplijn is het gebruik van gespecialiseerde expertmodellen. In plaats van één generalistisch model voor alle taken te trainen, ontwikkelde het team domeinspecifieke experts voor webontwikkeling en gebruikerservaring (UX).

De Web Development Expert richt zich op full-stack-taken zoals UI-constructie en componentsamenstelling. Alle codevoorbeelden zijn weergegeven in een door Playwright gecontroleerde Chromium-omgeving.

Voor React-voorbeelden werd een Vite-server geïmplementeerd om ervoor te zorgen dat alle afhankelijkheden correct werden geïnitialiseerd. Een Vision-Language Model (VLM) beoordeelde vervolgens de weergegeven pagina’s op lay-outintegriteit en UI-kwaliteit.

De User Experience Expert is geoptimaliseerd voor de naleving van tool-call-formaten in diverse CLI/IDE-scaffolds zoals Cline en OpenCode. Het team ontdekte dat training in diverse chatsjablonen voor tools de robuustheid van het model ten aanzien van onzichtbare schema’s tijdens de implementatie aanzienlijk verbeterde.

Zodra deze experts topprestaties bereikten, werden hun capaciteiten teruggedestilleerd in het enkele 80B/3B MoE-model. Dit zorgt ervoor dat de lichtgewicht implementatieversie de genuanceerde kennis van veel grotere lerarenmodellen behoudt.

Verbeter de benchmarks en bied tegelijkertijd hoge beveiliging

De resultaten van deze gespecialiseerde training zijn duidelijk zichtbaar in de concurrentiepositie van het model ten opzichte van industriële reuzen. In benchmarkevaluaties uitgevoerd met behulp van het SWE-Agent-scaffold, toonde Qwen3-Coder-Next uitzonderlijke efficiëntie aan in verhouding tot het aantal actieve parameters.

Op SWE-Bench Verified behaalde het model een score van 70,6%. Deze prestaties zijn bijzonder competitief als ze naast aanzienlijk grotere modellen worden geplaatst; het overtreft DeepSeek-V3.2, dat 70,2% scoort, en loopt slechts iets achter op de score van 74,2% van GLM-4.7.

Qwen3-Coder-Next-benchmarks. Krediet: Alibaba Qwen

Cruciaal is dat het model een robuust inherent veiligheidsbewustzijn demonstreert. Op SecCodeBench, dat het vermogen van een model om kwetsbaarheden te repareren evalueert, presteerde Qwen3-Coder-Next beter dan Claude-Opus-4.5 in scenario’s voor het genereren van code (61,2% versus 52,5%).

Qwen3-Coder-Next SecCodeBench benchmarkresultaten vergelijkingstabel

Qwen3-Coder-Next SecCodeBench benchmarkresultaten vergelijkingstabel. Krediet: Alibaba Qwen

Opvallend is dat het bedrijf hoge scores behield, zelfs als het geen beveiligingshints kreeg, wat aangeeft dat het heeft geleerd te anticiperen op veelvoorkomende beveiligingsvalkuilen tijdens de trainingsfase van agenten met 800.000 taken.

In meertalige meertalige beveiligingsevaluaties demonstreerde het model ook een competitief evenwicht tussen functionele en veilige codegeneratie, waarbij het beter presteerde dan zowel DeepSeek-V3.2 als GLM-4.7 op de CWEval-benchmark met een func-sec@1-score van 56,32%.

Het uitdagen van de propriëtaire reuzen

De release vertegenwoordigt de grootste uitdaging voor de dominantie van closed-source codeermodellen in 2026. Door te bewijzen dat een model met slechts 3B actieve parameters net zo effectief door de complexiteit van de echte software-engineering kan navigeren als een ‘gigant’, heeft Alibaba agentische codering effectief gedemocratiseerd.

De “aha!” Het moment voor de sector is het besef dat de lengte van de context en de doorvoer de twee belangrijkste hefbomen zijn voor succes van agenten.

Een model dat binnen enkele seconden 262.000 tokens van een repository kan verwerken en zijn eigen werk in een Docker-container kan verifiëren, is fundamenteel nuttiger dan een groter model dat te traag of te duur is om te herhalen.

Zoals het Qwen-team in hun rapport concludeert: “Het opschalen van agentische training, in plaats van alleen de modelgrootte, is een belangrijke drijfveer voor het bevorderen van de capaciteiten van codeeragenten in de echte wereld”. Met Qwen3-Coder-Next loopt het tijdperk van het ‘mammoet’-coderingsmodel mogelijk ten einde en wordt het vervangen door ultrasnelle, spaarzame experts die zo diep kunnen nadenken als ze kunnen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in