OpenAI heeft het rustig gedaan heeft een grote verandering ongedaan gemaakt in de manier waarop honderden miljoenen mensen gebruiken ChatGPT.
Op een laag profiel blog die productwijzigingen bijhoudtzei het bedrijf dat het de modelrouter van ChatGPT – een geautomatiseerd systeem dat ingewikkelde gebruikersvragen naar meer geavanceerde ‘redeneer’-modellen stuurt – heeft teruggedraaid voor gebruikers op de gratis en $ 5-per-maand Go-niveaus. In plaats daarvan zullen deze gebruikers nu standaard GPT-5.2 Instant gebruiken, de snelste en goedkoopste versie van OpenAI’s nieuwe modelserie. Free- en Go-gebruikers hebben nog steeds toegang tot redeneermodellen, maar moeten deze handmatig selecteren.
De modelrouter werd slechts vier maanden geleden gelanceerd als onderdeel van OpenAI’s streven om de gebruikerservaring te verenigen met de debuut van GPT-5. De functie analyseert gebruikersvragen voordat wordt gekozen of ChatGPT deze beantwoordt met een snel reagerend, goedkoop te bedienen AI-model of een langzamer, duurder redenerend AI-model. Idealiter zou de router gebruikers naar de slimste AI-modellen van OpenAI moeten leiden, precies wanneer ze die nodig hebben. Voorheen hadden gebruikers toegang tot geavanceerde systemen via een verwarrend “modelkiezer”-menu; een eigenschap die CEO Sam Altman zei dat het bedrijf ‘net zoveel haat als jij.”
In de praktijk leek de router veel meer gratis gebruikers naar de geavanceerde redeneermodellen van OpenAI te sturen, die voor OpenAI duurder zijn om te bedienen. Kort na de lancering zei Altman dat de router het gebruik van redeneermodellen onder gratis gebruikers verhoogde van minder dan 1 procent naar 7 procent. Het was een kostbare gok gericht op het verbeteren van de antwoorden van ChatGPT, maar de modelrouter werd niet zo breed omarmd als OpenAI had verwacht.
Een bron die bekend is met de zaak vertelt WIRED dat de router een negatieve invloed heeft gehad op de dagelijkse actieve gebruikersstatistieken van het bedrijf. Hoewel redeneermodellen algemeen worden gezien als de grens van AI-prestaties, kunnen ze minutenlang bezig zijn met het doornemen van complexe vragen tegen aanzienlijk hogere rekenkosten. De meeste consumenten willen niet wachten, ook al betekent dit dat ze een beter antwoord moeten krijgen.
Snel reagerende AI-modellen blijven domineren in algemene consumentenchatbots, aldus Chris Clark, de chief operating officer van OpenRouter, leverancier van AI-inferentie. Op deze platforms, zegt hij, zijn de snelheid en de toon van de reacties vaak van het grootste belang.
“Als iemand iets typt, en je moet twintig seconden lang nadenkende stippen laten zien, is dat gewoon niet erg boeiend”, zegt Clark. “Voor algemene AI-chatbots concurreer je met Google (Search). Google heeft er altijd op gefocust om Zoeken zo snel mogelijk te maken; ze zeiden nooit: ‘Goh, we zouden een beter antwoord moeten krijgen, maar doen het langzamer.'”



