Home Nieuws Ontwikkelaars behalen grote snelheids- en kostenbesparingen met de nieuwe GPT-5.1-update

Ontwikkelaars behalen grote snelheids- en kostenbesparingen met de nieuwe GPT-5.1-update

9
0
Ontwikkelaars behalen grote snelheids- en kostenbesparingen met de nieuwe GPT-5.1-update

Elyse Betters Picaro/ZDNET

Volg ZDNET: Voeg ons toe als voorkeursbron op Google.


De belangrijkste conclusies van ZDNET

  • GPT-5.1 versnelt het coderen met adaptieve en niet-redenerende modi.
  • Nieuwe promptcaching verlaagt de API-kosten voor ontwikkelaars van embedded apps.
  • Nieuwe tools maken AI-agenten capabeler in moderne IDE’s.

OpenAI is terug met een nieuwe 5.1-update voor zijn vorige grote taalmodel GPT-5. GPT-5 werd in augustus geïntroduceerd, wat tientallen jaren geleden is in AI’s time warp-snelheidsversie van ons universum.

OpenAI gebruikt uiteraard AI om sneller te kunnen coderen. Het is tenslotte een race met de andere grote spelers om die waardering van een miljard dollar te krijgen. Bovendien is het zonder enige twijfel bewezen dat AI-codering, in de handen van een professionele programmeur, een bijna magische krachtvermenigvuldiger en projectversneller is.

(Openbaarmaking: Ziff Davis, het moederbedrijf van ZDNET, heeft in april 2025 een rechtszaak aangespannen tegen OpenAI en beweerde dat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.)

Ook: OpenAI’s GPT-5.1 maakt ChatGPT ‘warmer’ en slimmer – hoe de geüpgradede modi nu werken

Voor een overzicht van de voordelen van GPT-5.1 voor gebruikers van consumentenchatbots, lees de uitleg van Senior Editor Sabrina Ortiz. Maar als u geïnteresseerd bent in het gebruik van AI in uw codering of ingebed in uw software, lees dan verder. Deze release heeft een aantal tastbare voordelen op het gebied van snelheid en kostenbesparing.

In dit artikel hebben we het over GPT-5.1 in de API. Met andere woorden, we kijken naar het verzenden van aanwijzingen naar de AI via de functieaanroep van een programma, en het terugkrijgen van een resultaat als de retourwaarde voor die aanroep.

Deze API-gestuurde AI-functionaliteit werkt binnen de softwareproducten die ontwikkelaars maken, maar omdat de ontwikkelaarstools zelf de API ook gebruiken om intelligentie te leveren, vergroot dit de bruikbaarheid van die tools. Dit komt ook ten goede aan ontwikkelaars die OpenAI’s Codex-coderingsagent gebruiken, omdat Codex nu beschikbaar is in een 5.1-release.

Ook: de beste gratis AI-cursussen en certificaten voor bijscholing in 2025 – en ik heb ze allemaal geprobeerd

JetBrains is bijvoorbeeld een maker van uitstekende ontwikkeltools. Hoewel ik het JetBrains-platform heb verlaten omdat VS Code veel vaker wordt gebruikt (en ik er vaak met je over moet praten), behoren JetBrains-producten nog steeds tot mijn favorieten. Als ik VS Code gebruik, mis ik soms enkele functies van JetBrains.

Daarom was het zo interessant toen Denis Shiryaev, hoofd van AI DevTools Ecosystem bij JetBrains, de ervaringen van het bedrijf met deze nieuwe GPT-5.1-release beschreef in een OpenAI-blogpost. Hij zei: “GPT 5.1 is niet zomaar een LLM – het is echt agentisch, het meest natuurlijk autonome model dat ik ooit heb getest.”

“Het schrijft zoals jij, codeert zoals jij, volgt moeiteloos complexe instructies en blinkt uit in front-end-taken, en past netjes in je bestaande codebase”, zegt hij.

Laten we eens kijken naar enkele redenen waarom GPT-5.1 zo enthousiast wordt gereageerd.

Adaptief redeneren

Ik vond coderen met GPT-5 verbazingwekkend krachtig, maar soms ook vervelend. Wat ik de AI ook vroeg, het antwoord kostte tijd. Zelfs op de eenvoudigste vraag kan het een paar minuten duren voordat er antwoord komt. Dat komt omdat alle query’s de aanvraag naar hetzelfde model hebben verzonden.

GPT-5.1 evalueert de gegeven prompt en past, op basis van de vraag of de vraag in principe gemakkelijk of moeilijk is, aan hoeveel cognitieve inspanning er in het antwoord wordt gestoken. Dit betekent dat eenvoudige vragen niet langer de vertraging zullen hebben die zo frustrerend was bij het gebruik van het oudere codeermodel.

Hier is een prompt die ik een paar dagen geleden aan GPT-5 gaf: “Controleer mijn werk. Ik heb de naam EDD_SL_Plugin_Updater hernoemd, zodat elke plug-in die deze gebruikt een unieke naam heeft om conflicten te voorkomen. Ik heb de klassenaam in het updater-bestand bijgewerkt, de naam van het updater-bestand bijgewerkt en vervolgens de verwijzingen naar het bestand en de klasse in het hoofdbestand van de plug-in bijgewerkt. Kunt u de plug-ins controleren en er zeker van zijn dat er geen fouten zijn? Meld het mij als u iets vindt en geen wijzigingen aanbrengen.”

Ook: 10 ChatGPT-prompttrucs die ik gebruik – om sneller de beste resultaten te krijgen

Dat is een groot verzoek, waarbij de AI ongeveer 12.000 bestanden moet scannen en mij een analyse moet geven. Het moet alle denkkracht gebruiken die het kan opbrengen.

Daarentegen toont een prompt als “Welke WP-CLI-opdracht toont de lijst met geïnstalleerde plug-ins?” is een heel eenvoudig verzoek. Het is eigenlijk een documentatie-opzoeking waarvoor helemaal geen echte intelligentie vereist is. Het is gewoon een snelle tijdbesparende prompt, dus ik hoef niet naar de browser over te schakelen en een Google-zoekopdracht uit te voeren.

Antwoorden op de snelle vraag zijn sneller en het proces gebruikt minder tokens. Tokens zijn de maatstaf voor de hoeveelheid gebruikte verwerking. API-aanroepen worden in rekening gebracht op basis van tokens, wat betekent dat het stellen van eenvoudige gemaksvragen goedkoper is.

Er is nog een ander aspect dat behoorlijk krachtig is, en dat is wat OpenAI omschrijft als ‘aanhoudend diep redeneren’. Niets is zo vervelend als een lang gesprek voeren met de AI, en dan uit het oog verliezen waar je het over had. Nu zegt OpenAI dat de AI langer op het goede spoor kan blijven.

‘Geen redenering’-modus

Dit is weer een van die gevallen waarin ik denk dat OpenAI baat zou kunnen hebben bij solide productbeheer vanwege de productnaamgeving. In deze modus wordt contextbegrip, het schrijven van kwaliteitscodes of het begrijpen van instructies niet uitgeschakeld. Het schakelt alleen maar een diepgaande, keten-van-gedachte-achtige analyse uit. Ze zouden het de ‘niet te veel nadenken’-modus moeten noemen.

Denk er zo over na. We hebben allemaal een vriend die over elke kwestie of actie nadenkt. Het zorgt ervoor dat ze vastlopen, het duurt een eeuwigheid voordat ze simpele dingen gedaan krijgen, en leidt vaak tot analyseverlamming. Er is een tijd om groots na te denken, en er is een tijd om gewoon papier of plastic te kiezen en verder te gaan.

Ook: ik heb twee AI-tools gecombineerd om een ​​grote bug op te lossen, maar ze zouden het niet zonder mij kunnen doen

Dankzij deze nieuwe modus zonder redenering kan de AI de gebruikelijke stapsgewijze afweging vermijden en gewoon naar een antwoord springen. Het is ideaal voor eenvoudige zoekopdrachten of basistaken. Dit vermindert de latentie (reactietijd) dramatisch. Het zorgt ook voor een responsievere, snellere en vloeiendere codeerervaring.

Door de modus zonder redeneren te combineren met adaptief redeneren, kan de AI de tijd nemen om moeilijke vragen te beantwoorden, maar snel reageren op eenvoudigere vragen.

Uitgebreide promptcaching

Een andere snelheidsboost (met bijbehorende kostenbesparing) is uitgebreide prompt caching. Wanneer een AI een prompt krijgt, moet deze eerst zijn natuurlijke taalverwerkingsmogelijkheden gebruiken om die prompt te analyseren om erachter te komen wat het is dat hem wordt gevraagd.

Dit is geen geringe prestatie. Het heeft AI-onderzoekers tientallen jaren gekost om AI zo ver te krijgen dat ze natuurlijke taal kunnen begrijpen, evenals de context en subtiele betekenissen van wat er wordt gezegd.

Wanneer er dus een prompt wordt gegeven, moet de AI echt werk doen om deze te tokeniseren, om een ​​interne representatie te creëren waaruit een antwoord kan worden opgebouwd. Dit is niet zonder de kosten voor het gebruik van hulpbronnen.

Ook: 10 ChatGPT Codex-geheimen die ik pas leerde na 60 uur pair-programmeren ermee

Als een vraag tijdens een sessie opnieuw wordt gesteld en dezelfde of een soortgelijke vraag opnieuw moet worden geïnterpreteerd, worden die kosten opnieuw gemaakt. Houd er rekening mee dat we het niet alleen hebben over aanwijzingen die een programmeur aan een API geeft, maar ook over aanwijzingen die binnen een applicatie worden uitgevoerd en die vaak worden herhaald tijdens het gebruik van de applicatie.

Neem bijvoorbeeld een gedetailleerde prompt voor een klantenservicemedewerker, die voor elke klantinteractie dezelfde set basisstartregels moet verwerken. Het analyseren van deze prompt kan duizenden tokens vergen, en zou duizenden keren per dag moeten worden gedaan.

Door de prompt in de cache op te slaan (en OpenAI doet dit nu 24 uur), wordt de prompt één keer gecompileerd en is deze vervolgens beschikbaar voor hergebruik. De snelheidsverbeteringen en kostenbesparingen kunnen aanzienlijk zijn.

Betere businesscase voor design-ins

Al deze verbeteringen bieden OpenAI een betere businesscase die ze aan klanten kunnen presenteren voor design-ins. Design-in is een vrij oude kunstterm, die wordt gebruikt om te beschrijven wanneer een onderdeel tot een product wordt ontworpen.

Waarschijnlijk het beroemdste (en meest consequente) ontwerp was toen IBM in 1981 de Intel 8088 CPU koos voor de originele IBM-pc. Die ene beslissing lanceerde het hele x86-ecosysteem en voedde tientallen jaren lang het succes van Intel op het gebied van processors.

Tegenwoordig is Nvidia de begunstigde van enorme ontwerpbeslissingen van datacenteroperators, hongerig naar de meeste AI-verwerkingskracht die ze kunnen vinden. Die vraag heeft ervoor gezorgd dat Nvidia het meest waardevolle bedrijf ter wereld is geworden in termen van marktkapitalisatie, ergens boven de $5 biljoen.

Ook: ik heb 4 jaar productontwikkeling gedaan in 4 dagen voor $ 200, en ik ben nog steeds verbijsterd

OpenAI profiteert ook van design-ins. CapCut is een video-app met 361 miljoen downloads in 2025. Temu is een shopping-app met 438 miljoen downloads in 2025. Als een van beide bedrijven bijvoorbeeld AI in hun app zou insluiten, en als ze dat zouden doen met behulp van API-aanroepen van OpenAI, zou OpenAI een hoop geld kunnen verdienen aan het cumulatieve volume aan API-aanroepen en de bijbehorende facturering.

Maar net als bij fysieke componenten zijn de kosten van verkochte goederen altijd een probleem bij design-ins. Elke fractie van een cent aan COGS kan de totale eindprijs verhogen of de marges gevaarlijk beïnvloeden.

Dus als OpenAI de kosten van API-aanroepen substantieel kan verlagen en toch AI-waarde kan leveren, zoals het lijkt te zijn gebeurd met GPT-5.1, is de kans veel groter dat het kan pleiten voor het opnemen van GPT-5.1 in de producten van ontwikkelaars.

Meer nieuwe mogelijkheden

De GPT-5.1-release bevat ook betere codeerprestaties. De AI is beter bestuurbaar en biedbaar, wat betekent dat hij de aanwijzingen beter volgt. Als mijn pup maar beter kon bieden, zouden we niet voortdurend pijnlijk gekwetter hebben als de post wordt bezorgd.

De coderende AI hoeft minder onnodig na te denken, is meer gemoedelijk tijdens het aanroepen van tools en gedraagt ​​zich over het algemeen vriendelijker tijdens reeksinteracties. Er is ook een nieuwe apply_patch-tool die helpt bij codeerreeksen in meerdere stappen en agentische acties, samen met een nieuwe shell-tool die het beter doet wanneer hem wordt gevraagd opdrachtregelopdrachten te genereren en te evalueren en te handelen op basis van reacties.

Ook: OpenAI heeft nu een nieuwe agentische coderingspartner voor u: GPT-5-Codex

Ik ben behoorlijk enthousiast over deze nieuwe release. Omdat ik GPT-5 al gebruik, zal het leuk zijn om te zien hoeveel responsiever het nu is met GPT-5.1.

En jij? Heeft u geprobeerd GPT-5 of de nieuwe GPT-5.1-modellen te gebruiken in uw codeer- of ontwikkelingsworkflow? Ziet u de snelheids- of kostenverbeteringen die OpenAI veelbelovend is, of evalueert u nog steeds of deze veranderingen van belang zijn voor uw projecten? Hoe belangrijk zijn functies als adaptief redeneren, geen redeneermodus of promptcaching wanneer u besluit welk AI-model u in uw tools of producten wilt inbouwen? Laat het ons weten in de reacties hieronder.


Je kunt mijn dagelijkse projectupdates volgen op sociale media. Zorg ervoor dat u zich abonneert op mijn wekelijkse update-nieuwsbrief en volg mij op Twitter/X op @DavidGewirtzop Facebook op Facebook.com/DavidGewirtz, op Instagram op Instagram.com/DavidGewirtz, op Bluesky op @DavidGewirtz.com en op YouTube op YouTube.com/DavidGewirtzTV.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in