Home Nieuws Nieuwe AI-modellen verliezen vrijwel onmiddellijk hun voorsprong

Nieuwe AI-modellen verliezen vrijwel onmiddellijk hun voorsprong

5
0
Nieuwe AI-modellen verliezen vrijwel onmiddellijk hun voorsprong

In vandaag AI ras worden doorbraken niet langer gemeten in jaren – of zelfs maanden – maar in weken.

De uitgave van Opus 4.6 iets meer dan twee weken geleden was een belangrijk moment voor de maker, Anthropic, die op een aantal gebieden ultramoderne prestaties leverde. Maar binnen een week had de Chinese concurrent Z.ai dat wel uitgegeven zijn eigen Opus-achtig model, GLM-5. (Er zijn geen aanwijzingen dat GLM-5 op enigerlei wijze gebruik maakt van of leent van Opus.) Veel op sociale media noemde het A verlaagde prijs Opus-alternatief.

Maar de voorsprong van Z.ai duurde ook niet lang. Net toen Anthropic werd ondermijnd door de release van GLM-5, werd GLM-5 snel gedownload, gecomprimeerd en opnieuw uitgebracht in een versie die lokaal zou kunnen draaien zonder internettoegang.

Er zijn beschuldigingen geuit over de manier waarop AI-bedrijven de prestaties van hun concurrenten kunnen evenaren en vervolgens overtreffen – vooral hoe Chinese AI-bedrijven binnen enkele dagen of weken modellen kunnen uitbrengen die met de Amerikaanse concurreren. Google heeft lang geklaagd over de risico’s van destillatie, waarbij bedrijven modellen bestrooien met aanwijzingen die zijn ontworpen om interne redeneerpatronen en logica te extraheren door enorme responsdatasets te genereren, die vervolgens worden gebruikt om goedkopere kloonmodellen te trainen. Eén acteur zou het Gemini AI-model van Google meer dan 100.000 keer hebben aangezet om te proberen de geheimen te ontrafelen van wat het model zo krachtig maakt.

“Ik denk wel dat de gracht kleiner wordt”, zegt Shayne Longpre, een promovendus aan het Massachusetts Institute of Technology wiens onderzoek zich richt op AI-beleid.

De verschuiving vindt plaats zowel in de snelheid van releases als in de aard van de verbeteringen. Longpre stelt dat de grenskloof tussen de beste gesloten modellen en alternatieven met een open gewicht drastisch kleiner wordt. “De kloof tussen dat en volledig open-source- of open-weight-modellen bedraagt ​​ongeveer drie tot zes maanden”, legt hij uit. wijzend op onderzoek van de non-profit onderzoeksorganisatie Epoch AI-trackingmodelontwikkeling.

De reden voor die steeds kleiner wordende kloof is dat een groot deel van de vooruitgang nu plaatsvindt na een modelschip. Longpre beschrijft dat bedrijven ‘op een andere manier leren of deze systemen verfijnen, of ze meer testtijdredenen geven, of langere contextvensters mogelijk maken’ – waardoor de aanpassingsperiode veel korter wordt, ‘in plaats van dat ze een nieuw model helemaal opnieuw moeten trainen’, zegt hij.

Elk van deze iteratieve verbeteringen zorgt voor snelheidsvoordelen. “Ze brengen met al deze varianten elke één tot twee weken dingen naar buiten”, zegt hij. “Het zijn net patches voor reguliere software.”

Maar Amerikaanse AI-bedrijven, die de neiging hebben om veel van deze ontwikkelingen te pionieren, zijn steeds openhartiger geworden tegen deze praktijk. OpenAI heeft zogenaamd dat DeepSeek concurrerende systemen trainde door resultaten van Amerikaanse modellen te distilleren, in een memo aan Amerikaanse wetgevers.

Zelfs als niemand in de strikte zin van het woord ‘stelt’, wordt het open-weight ecosysteem steeds sneller in het repliceren van technieken die effectief blijken in grensmodellen.

De definitie van wat ‘open’ betekent in modellicenties is gedeeltelijk de oorzaak, zegt Thibault Schrepel, universitair hoofddocent rechten aan de Vrije Universiteit Amsterdam, die concurrentie in funderingsmodellen bestudeert. “Heel vaak horen we dat een systeem wel of niet open source is”, zegt hij. “Ik denk dat het een zeer beperkte manier is om te begrijpen wat wel of niet open source is.”

Het is belangrijk om de feitelijke voorwaarden van die licenties te onderzoeken, voegt Schrepel toe. “Als je goed naar de licenties van alle modellen kijkt, beperken ze eigenlijk heel erg wat je kunt doen met wat ze open source noemen”, zegt hij. Meta’s Bel 3 licentiebevat bijvoorbeeld een trigger voor zeer grote services, maar niet voor kleinere. “Als je het bij meer dan 700 miljoen gebruikers uitrolt, dan moet je een licentie aanvragen”, zegt Schrepel. Dat tweeledige systeem kan grijze gebieden creëren waarin twijfelachtige praktijken kunnen ontstaan.

Ter compensatie zal de markt waarschijnlijk uiteen gaan lopen, zegt Longpre van MIT. Aan de ene kant zullen er goedkope, steeds capabelere, zelfgehoste modellen zijn voor alledaagse taken; aan de andere kant: premium frontier-systemen voor harder werk waar veel op het spel staat. “Ik denk dat de bodem stijgt,” voegt hij eraan toe, terwijl hij voorspelt “meer zeer betaalbare, zelf-gehoste, zelf-gehoste, algemene modellen van steeds kleinere afmetingen ook.” Maar hij gelooft dat gebruikers nog steeds zullen “navigeren naar het gebruik van OpenAI-, Google- en Anthropic-modellen” voor belangrijk, bekwaam werk.

Het volledig voorkomen van destillatie kan onmogelijk zijn, voegt Longpre eraan toe. Hij gelooft dat het onvermijdelijk is dat wanneer er een nieuw model wordt uitgebracht, concurrenten zullen proberen de beste elementen eruit te halen en te repliceren. “Ik denk dat het uiteindelijk een onvermijdelijk probleem is”, zegt hij.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in