Begin maart, OpenAI ontketende een een-tweetje en liet twee grote grensmodellen slechts enkele dagen na elkaar vallen.
Eerst kregen we de nieuwe GPT-5.3een ‘instant’-model dat is geoptimaliseerd voor snelle, nauwkeurige reacties.
Dan, OpenAI heeft GPT-5.4 uitgebracht twee dagen later. Dit is een ‘denkmodel’ dat is geoptimaliseerd voor diepgaand analytisch werk.
Ik was in de beginperiode bètatester voor OpenAI en vandaag geef ik honderden dollars per maand uit aan het gebruik van hun modellen via de OpenAI API.
Ik heb zowel GPT-5.3 als 5.4 uitgebreid getest sinds hun lancering. De nieuwe modellen vertegenwoordigen een totaal andere aanpak en duiden op een grote verandering in hoe groot AI Bedrijven bouwen hun technologie.
De doener
OpenAI’s eerste nieuwe model, GPT-5.3, is gebouwd voor snelheid. GPT-5.3 reageert over het algemeen binnen enkele seconden op vragen.
In zijn releaseopmerkingen voor het nieuwe modelOpenAI zegt dat GPT-5.3 is gebouwd om een pittige, slimme schrijver en een snelle communicator te zijn.
“GPT‑5.3 Instant levert nauwkeurigere antwoorden, rijkere en beter gecontextualiseerde resultaten bij het zoeken op internet, en vermindert onnodige doodlopende wegen, kanttekeningen en overdreven declaratieve bewoordingen die de gespreksstroom kunnen onderbreken”, zegt het bedrijf.
Het model verschilt van andere instantmodellen die OpenAI eerder heeft uitgebracht. Voorheen leken de instant-modellen van het bedrijf bijna uitsluitend te vertrouwen op hun wereldkennis om vragen te beantwoorden.
In mijn ervaring vielen die eerdere instant-modellen vaak terug op wat ze tijdens hun initiële training hadden geleerd, in plaats van het internet af te zoeken naar nieuwe gegevens.
Deze aanpak resulteert inderdaad in bliksemsnelle reacties. Maar het betekende dat de eerdere instant-modellen van OpenAI, om het eerlijk te zeggen, nogal dom waren.
Als je snel de hoofdstad van Californië (Sacramento) wilt leren kennen of wilt vaststellen of de plant die je zojuist hebt aangeraakt gifeik is (ja), dan kun je een foto sturen of een vraag stellen aan eerdere instantmodellen en een fatsoenlijk antwoord krijgen.
Maar als je meer wilde weten over actuele gebeurtenissen of nieuws, hadden de modellen moeite. Omdat ze vertrouwden op voorgetrainde wereldkennis, bleven ze vaak hangen in het verleden en hadden ze moeite om nieuwe informatie te integreren.
Ironisch genoeg leken de vroege instant-modellen van OpenAI niets van hun eigen bestaan af te weten. Ik herinner me dat ik chatte met een instantversie van GPT-5.1. Het model zwoer op en neer dat het niet bestond, en dat GPT-5 het nieuwste OpenAI-model was.
Waarom? Want op het moment dat het model werd getraind, was dat inderdaad het geval niet bestaan nog steeds. Omdat het vastzat in die vroegere wereld, was het model niet in staat zelfs dit meest basale stukje nieuwe informatie te begrijpen.
GPT-5.3 is anders. Het leunt nog steeds sterk op zijn vooraf opgeleide wereldkennis. Maar OpenAI zegt dat het is geoptimaliseerd om snel te bladeren en betekenis te geven aan informatie die het op internet en via andere bronnen vindt.
Het model “… brengt wat het online vindt effectiever in evenwicht met zijn eigen kennis en redenering, bijvoorbeeld door gebruik te maken van zijn bestaande kennis om recent nieuws te contextualiseren in plaats van eenvoudigweg de zoekresultaten samen te vatten”, aldus de release notes van OpenAI.
Het nieuwe model is ook opmerkelijk minder timide. Instantmodellen hebben slechts beperkte tijd om diep na te denken over de zoekopdracht van een gebruiker en hun bedoeling te begrijpen. In het verleden betekende dit dat ze de neiging hadden vage, dubbelzinnige antwoorden te geven op vragen met zelfs maar een kleine mogelijkheid om schade te veroorzaken.
OpenAI geeft het voorbeeld van een persoon die vraagt naar het juiste traject dat een pijl nodig heeft om een boogschietdoel te raken. Dat is het soort eenvoudige natuurkundeprobleem dat iemand zou kunnen tegenkomen als hij aan het oefenen was voor een AP-examen, of gewoon probeerde boogschieten te leren.
Voorheen begonnen instant-modellen hun reacties vaak door de gebruiker uit te schelden. Ze waarschuwden bijvoorbeeld dat het afvuren van pijlen gevaarlijk zou kunnen zijn, en gaven óf een flauwe non-reactie, óf ze schreven een paar paragrafen met disclaimers voordat ze het antwoord gaven.
OpenAI zegt dat GPT-5.3 de context van de vragen van gebruikers veel beter begrijpt. Hierdoor wordt snel duidelijk dat een gebruiker die naar trajecten vraagt, niet probeert iemand met pijl en boog te vermoorden. Het model kan dus de vragen van de gebruiker beantwoorden zonder veel dubbelzinnigheid en hedging.
In mijn tests tot nu toe lijken al deze veranderingen echt goed te werken. GPT-5.3 is het eerste instant-model dat ik heb gebruikt en dat niet aanvoelt als een afgezwakte versie van de denkversies van OpenAI.
In plaats daarvan voelt het als een full frontier-model dat bijna alles kan doen wat eerdere denkmodellen konden bereiken – alleen veel sneller en met vlotter, boeiender proza.
De denker
De snelheid en slimheid van GPT-5.3 maken GPT-5.4 vrij om iets heel anders te zijn.
Waar GPT-5.3 de ‘doener’ is (die snel een fatsoenlijke versie van een antwoord op elke vraag naar voren brengt), is GPT-5.4 in hoge mate de ‘denker’.
Het model onderzoekt diepgaand voordat het op vragen reageert. Bij mijn eigen tests duurde het soms wel vijf tot tien minuten voordat ik contact opnam over complexe verzoeken.
Zoals veel wetenschappelijke of analytische mensen is het model uiterst gedetailleerd en alomvattend in zijn antwoorden. En net als sommige van die mensen is het ook een beetje saai.
Het lezen van de reacties voelt een beetje als het doorlezen van de handleiding van je broodrooster of het doornemen van een fascinerend maar pedant wetenschappelijk artikel. Je leert veel, maar het zijn niet bepaald sprankelende dingen.
Dat markeert opnieuw een nieuwe aanpak. Voorheen probeerden de denkmodellen van OpenAI alles te doen: code maken, wetenschappelijke problemen op een diepgaand niveau analyseren en op een meeslepende en creatieve manier schrijven.
Zoals veel menselijke alleskunners betekende dit dat de modellen alles behoorlijk deden, maar niets uitzonderlijk goed.
Omdat GPT-5.4 het idee van creatief schrijven of op een pittige en prettige manier lijkt te laten varen, krijgt het de ruimte om uit te blinken in wat het is gebouwd om te doen— cijfers analyseren, software bouwen en gegevens analyseren.
De bichon-test
Om de modellen te vergelijken, gaf ik beide een eenvoudige opdracht: “Kies een specifiek onderwerp dat verband houdt met Bichon Frises en schrijf er vervolgens een artikel over.”
GPT-5.3 reageerde onmiddellijk met een artikel met de titel “Waarom Bichon Frises een van de beste honden zijn voor het wonen in een appartement.”
Het artikel was gestructureerd als een lijst en had een goed doordachte inleiding die netjes overging in het hoofdonderwerp.
Het bevatte nuttige, goed geschreven aantekeningen over de grootte van het ras (“Een Bichon kan naast je op de bank kruipen, een dutje doen in een klein bed naast je bureau en zich rondbewegen in een appartement met één slaapkamer zonder voortdurend het gevoel te hebben dat hij onder de voeten loopt.”), temperament en meer.
GPT-5.4 daarentegen koos ervoor om uitvoerig in te gaan op het probleem van Bichon Frise-traanvlekken. Het artikel was gevuld met ondraaglijk droge nuggets zoals deze kleine doozy van een paragraaf:
“Traanvlekken worden voornamelijk veroorzaakt door moleculen die porfyrines worden genoemd. Deze ijzerhoudende pigmenten zijn van nature aanwezig in tranen en speeksel. Wanneer tranen langere tijd op de vacht van een hond zitten, oxideren de porfyrines wanneer ze worden blootgesteld aan lucht. Die oxidatie produceert de roestige rode of bruine kleur die je onder de ogen ziet. “
GPT-5.4 voelt een beetje als de man die je zou raadplegen als je hulp nodig had bij het doen van je belastingen of als je de deeltjesfysica beter wilde begrijpen.
Maar je wilt echt niet naast hem vast komen te zitten op een feestje. Het model is fantastisch bij complexe analytische taken, maar lijkt doelbewust gebouwd om de creatieve, communicatieve kant van het werk te mijden.
Een betere aanpak?
In eerste instantie vond ik deze gesplitste aanpak een uitdaging.
Voorheen kon ik eenvoudigweg het meest up-to-date denkmodel gebruiken dat beschikbaar is bij OpenAI.
Deze modellen waren duidelijk de “premium”-versie van het OpenAI-assortiment. De instant-modellen leken gebouwd voor mensen die niet de moeite konden nemen om $ 20 uit te geven voor ChatGPT-toegang.
Met de nieuwe aanpak van OpenAI is die kloof echter niet zo duidelijk.
Ik merk dat wanneer ik hulp nodig heb bij het diepgaand onderzoeken van iets of bij iets waarbij cijfers en gegevens betrokken zijn, ik me tot GPT-5.4 wend.
De statistieken van mijn YouTube-kanaal opsplitsen en de relatieve voordelen van Starlink en Comcast Business vergelijken: dat zijn het soort dingen waarvoor ik 5.4 gebruik.
Als ik met een chatbot wil praten voor een snel (hoewel enigszins vluchtig) antwoord, merk ik dat ik steeds vaker het 5.3-model gebruik.
Recente persoonlijke vragen die ik op GPT-5.3 heb geplaatst, zijn onder meer “Waarom gapen we?” (om de hersenen af te koelen), “Wat is dit voor een rare munt die ik in mijn kast heb gevonden?” (1936 British One-Penny), en “Hoe maak ik stoffen banden schoon?” (Met azijn).
Ik heb het model ook op het werk gebruikt voor eenvoudige Python-vragen, achtergrondonderzoek en eenvoudige maar vervelende taken zoals het berekenen van de vierkante meters van een kamer op basis van een reeks metingen.
Eén ding dat ik me heb gerealiseerd bij het gebruik van GPT-5.3 is dat snelheid belangrijker is dan ik dacht.
Voorheen waren de instant-modellen van OpenAI te weinig krachtig om van veel nut te zijn voor alles behalve de eenvoudigste vragen. Krachtige gebruikers zoals ik wendden zich altijd tot de denkmodellen, die wel vijf minuten nodig hadden om een antwoord te geven.
Nu GPT-5.3 goed genoeg is om echt bruikbare antwoorden te geven, zie ik hoe fijn het is om gegevens onmiddellijk terug te krijgen.
Een paar minuten wachten op reacties van een chatbot, verspreid over een werkdag, voelt niet veel. Maar die minuten tellen op. Ik merk dat ik sneller en beter kan werken nu ik GPT-5.3 voor meer dingen kan gebruiken en meteen antwoorden krijg.
Op basis van wat ik tot nu toe heb gezien, verwacht ik dat OpenAI dit nieuwe, gesplitste pad voor het bouwen van modellen zal blijven volgen.
GPT-5.3 is pittig en werkt in veel opzichten beter dan GPT-5.4. Maar het is waarschijnlijk ook veel goedkoper in gebruik.
Omdat het model vermoedelijk meer vertrouwt op zijn vooraf getrainde wereldkennis, verbrandt het waarschijnlijk veel minder tokens om zijn werk uit te voeren dan een denkend model.
Als meer ervaren gebruikers zoals ik merken dat ze echt kunnen vertrouwen op een instant-model voor goede antwoorden, zal dat het aantal mensen verminderen dat zich voor alledaagse vragen tot de duurdere denkmodellen wendt.
Dat zou OpenAI in staat moeten stellen sneller winstgevend te worden door de kosten te verlagen en toch dezelfde $ 20 (of meer) per maand te ontvangen van gebruikers zoals ik.
Als deze aanpak op de langere termijn vruchtbaar blijkt, is het mogelijk dat we een verschuiving zullen zien, weg van het gebruik van denkmodellen.
Een tijdlang leverde het extra werk dat deze modellen leverden een opmerkelijk betere respons op. Met GPT-5.3 lijkt dat niet langer vanzelfsprekend.
Als OpenAI zijn instant-modellen kan blijven verbeteren, zien we mogelijk een terugkeer naar LLM’s die snel en goed genoeg zijn, en weg van de langzame, zorgvuldige LLM’s die tegenwoordig in zwang zijn.
Die langzamere, krachtigere modellen zouden het domein kunnen worden van programmeurs en data-analisten, terwijl alle anderen vertrouwen op steeds krachtigere instant-modellen. Dat zou de ervaring van de interactie met LLM’s versnellen en AI-bedrijven helpen opschalen door hun kosten dramatisch te verlagen.
We zijn er nog niet. Maar het nieuwe paar modellen van OpenAI betekent een grote verschuiving in de branche en een verleidelijke stap in die nieuwe richting.


