Home Nieuws OpenAI zet Cerebras-chips in voor 15x snellere codegeneratie in de eerste grote...

OpenAI zet Cerebras-chips in voor 15x snellere codegeneratie in de eerste grote stap voorbij Nvidia

1
0
OpenAI zet Cerebras-chips in voor 15x snellere codegeneratie in de eerste grote stap voorbij Nvidia

OpenAI donderdag gelanceerd GPT-5.3-Codex-Sparkeen uitgekleed coderingsmodel dat is ontworpen voor vrijwel onmiddellijke responstijden, en markeert het eerste significante inferentiepartnerschap van het bedrijf buiten de traditionele door Nvidia gedomineerde infrastructuur. Het model draait op hardware van Cerebra’s systemeneen chipmaker uit Sunnyvale wiens processors op waferschaal gespecialiseerd zijn in AI-workloads met lage latentie.

De samenwerking komt op een cruciaal moment voor OpenAI. Het bedrijf bevindt zich in een gerafelde relatie met oude chipleverancier Nvidia, toenemende kritiek over zijn besluit om advertenties te introduceren in ChatGPT, een nieuw aangekondigde Pentagon-contracten interne organisatorische onrust die heeft geleid tot een veiligheidsgericht team ontbonden en minstens één onderzoeker uit protest aftreden.

“GPU’s blijven fundamenteel in onze trainings- en inferentiepijplijnen en leveren de meest kosteneffectieve tokens voor breed gebruik”, vertelde een woordvoerder van OpenAI aan VentureBeat. “Cerebras vult die basis aan door uit te blinken in workflows die een extreem lage latentie vereisen, waardoor de end-to-end-lus wordt verkleind, zodat gebruiksscenario’s zoals realtime coderen in Codex beter reageren tijdens het herhalen.”

De zorgvuldige framing – waarbij wordt benadrukt dat GPU’s “fundamenteel blijven” terwijl Cerebras als een “complement” wordt gepositioneerd – onderstreept het delicate evenwicht dat OpenAI moet vinden als het zijn chipleveranciers diversifieert zonder zich te vervreemden Nvidiade dominante kracht in AI-versnellers.

Snelheidswinst gaat gepaard met compromissen tussen capaciteiten die ontwikkelaars volgens OpenAI zullen accepteren

Codex-Spark vertegenwoordigt OpenAI’s eerste model dat speciaal is gebouwd voor realtime codeersamenwerking. Het bedrijf beweert dat het model 15 keer snellere generatiesnelheden levert dan zijn voorganger, hoewel het weigerde specifieke latentiestatistieken te bieden, zoals cijfers over de tijd tot het eerste token of tokens per seconde.

“We kunnen geen specifieke latentiecijfers delen, maar Codex-Spark is geoptimaliseerd om vrijwel onmiddellijk aan te voelen: het levert 15x hogere generatiesnelheden terwijl het zeer capabel blijft voor codeertaken in de echte wereld”, aldus de OpenAI-woordvoerder.

De snelheidswinst gaat gepaard met erkende vermogensafwegingen. Op SWE-Bench Pro En Terminal-Bench 2.0 – twee industriebenchmarks die het vermogen van AI-systemen evalueren om complexe software-engineeringtaken autonoom uit te voeren – Codex-Spark presteert ondermaats GPT-5.3-Codex-model. OpenAI positioneert dit als een acceptabele uitwisseling: ontwikkelaars krijgen snel genoeg reacties om de creatieve stroom in stand te houden, zelfs als het onderliggende model de meest geavanceerde programmeeruitdagingen in meerdere stappen niet aankan.

Het model wordt gelanceerd met een contextvenster van 128.000 tokens en ondersteunt alleen tekst – geen afbeeldingen of multimodale invoer. OpenAI heeft het beschikbaar gesteld als onderzoekspreview voor ChatGPT Pro abonnees via de Codex-app, opdrachtregelinterface en Visual Studio Code-extensie. Een kleine groep zakelijke partners krijgt API-toegang om de integratiemogelijkheden te evalueren.

“Wij zijn aan het maken Codex-Spark beschikbaar in de API voor een klein aantal ontwerppartners om te begrijpen hoe ontwikkelaars Codex-Spark in hun producten willen integreren”, legt de woordvoerder uit. “We zullen de toegang de komende weken uitbreiden terwijl we onze integratie blijven afstemmen op echte werklasten.”

Cerebras-hardware elimineert knelpunten waar traditionele GPU-clusters last van hebben

De technische architectuur erachter Codex-Spark vertelt een verhaal over inferentie-economie die steeds belangrijker wordt naarmate AI-bedrijven consumentengerichte producten opschalen. Cerebra’s Waferschaalmotor 3 – een enkele chip die ongeveer zo groot is als een bord en vier biljoen transistors bevat – elimineert een groot deel van de communicatieoverhead die optreedt wanneer AI-werklasten zich over clusters van kleinere processors verspreiden.

Voor het trainen van enorme modellen blijft die gedistribueerde aanpak noodzakelijk en de GPU’s van Nvidia blinken daarin uit. Maar voor gevolgtrekking – het proces van het genereren van antwoorden op vragen van gebruikers – beweert Cerebras dat zijn architectuur resultaten kan opleveren met een dramatisch lagere latentie. Sean Lie, CTO en mede-oprichter van Cerebras, omlijstte de samenwerking als een kans om de manier waarop ontwikkelaars omgaan met AI-systemen opnieuw vorm te geven.

“Wat ons het meest boeit aan GPT-5.3-Codex-Spark is de samenwerking met OpenAI en de ontwikkelaarsgemeenschap om te ontdekken wat snelle gevolgtrekking mogelijk maakt: nieuwe interactiepatronen, nieuwe gebruiksscenario’s en een fundamenteel andere modelervaring”, zei Lie in een verklaring. “Deze preview is nog maar het begin.”

Het infrastructuurteam van OpenAI beperkte zijn optimalisatiewerk niet tot de Cerebras-hardware. Het bedrijf heeft latentieverbeteringen aangekondigd in de gehele inferentiestapel die alle Codex-modellen ten goede komen, ongeacht de onderliggende hardware, inclusief persistent WebSocket-verbindingen en optimalisaties binnen de Reacties-API. De resultaten: 80 procent reductie in overhead per client-server retour, 30 procent reductie in overhead per token en 50 procent reductie in tijd tot eerste token.

Een Nvidia-megadeal ter waarde van $100 miljard is achter de schermen stilletjes uit elkaar gevallen

Het Cerebras-partnerschap krijgt extra betekenis gezien de steeds gecompliceerder wordende relatie tussen beide OpenAI En Nvidia. Afgelopen herfst, toen OpenAI zijn Sterrenpoort infrastructuurinitiatief waar Nvidia zich publiekelijk aan heeft verbonden 100 miljard dollar investeren om OpenAI te ondersteunen bij het uitbouwen van de AI-infrastructuur. De aankondiging leek een strategische alliantie te versterken tussen ’s werelds meest waardevolle AI-bedrijf en zijn dominante chipleverancier.

Vijf maanden later is die megadeal feitelijk tot stilstand gekomen, aldus meerdere rapporten. Nvidia-CEO Jensen Huang heeft publiekelijk de spanningen ontkend en vertelde verslaggevers eind januari dat er “geen drama” en dat Nvidia zich blijft inzetten voor deelname aan de huidige financieringsronde van OpenAI. Maar de relatie is aanzienlijk bekoeld, met wrijving die voortkomt uit meerdere bronnen.

OpenAI heeft op agressieve wijze partnerschappen nagestreefd met alternatieve chipleveranciers, waaronder de Hersenen omgaan en aparte overeenkomsten mee sluiten AMD En Broadcom. Vanuit het perspectief van Nvidia zou OpenAI zijn invloed kunnen gebruiken om juist de hardware die zijn AI-doorbraken mogelijk maakte, te commercialiseren. Vanuit het perspectief van OpenAI is het verminderen van de afhankelijkheid van één enkele leverancier een verstandige bedrijfsstrategie.

“We zullen voortdurend met het ecosysteem blijven samenwerken aan het evalueren van de meest prijs-presterende chips voor alle gebruiksscenario’s”, vertelde de woordvoerder van OpenAI aan VentureBeat. “GPU’s blijven onze prioriteit voor kostengevoelige en doorvoergerichte gebruiksscenario’s in onderzoek en gevolgtrekking.” De verklaring leest als een zorgvuldige poging om Nvidia niet tegen te werken en tegelijkertijd de flexibiliteit te behouden – en weerspiegelt een bredere realiteit dat het trainen van grensverleggende AI-modellen nog steeds precies het soort enorme parallelle verwerking vereist dat Nvidia GPU’s bieden.

Ontbonden veiligheidsteams en het vertrek van onderzoekers roepen vragen op over de prioriteiten van OpenAI

De Codex-Spark De lancering komt op het moment dat OpenAI een reeks interne uitdagingen moet overwinnen die de controle op de koers en waarden van het bedrijf hebben geïntensiveerd. Eerder deze week kwamen berichten naar voren dat OpenAI heeft zijn missie-uitlijningsteam ontbondeneen groep die in september 2024 werd opgericht om het verklaarde doel van het bedrijf te bevorderen, namelijk ervoor te zorgen dat kunstmatige algemene intelligentie de mensheid ten goede komt. De zeven leden van het team zijn overgeplaatst naar andere rollen, waarbij leider Joshua Achiam een ​​nieuwe titel heeft gekregen als OpenAI’s ‘hoofdfuturist’.

OpenAI eerder ontbond een andere op veiligheid gerichte groephet superalignment-team, in 2024. Dat team had zich geconcentreerd op de existentiële risico’s van AI op de lange termijn. Het patroon van het oplossen van veiligheidsgerichte teams heeft kritiek gekregen van onderzoekers die beweren dat de commerciële druk van OpenAI de oorspronkelijke non-profitmissie overweldigt.

Het bedrijf wordt ook geconfronteerd met de gevolgen van zijn besluit om advertenties in ChatGPT te introduceren. Onderzoeker Zoë Hitzig heeft deze week ontslag genomen over wat zij omschreef als de ‘glibberige helling’ van door advertenties ondersteunde AI, waarbij ze in een essay in de New York Times waarschuwde dat ChatGPT’s archief van intieme gebruikersgesprekken ongekende mogelijkheden voor manipulatie creëert. Anthropic greep de controverse aan met een Super Bowl-reclamecampagne met de slogan: “Advertenties komen naar AI. Maar niet naar Claude.”

Afzonderlijk het bedrijf stemde ermee in om ChatGPT aan het Pentagon te verstrekken door Genai.mileen nieuw programma van het ministerie van Defensie dat vereist dat OpenAI “alle wettige toepassingen” toestaat zonder door het bedrijf opgelegde beperkingen – voorwaarden die Anthropic naar verluidt heeft afgewezen. En er kwamen berichten naar voren dat Ryan Beiermeister, vice-president productbeleid van OpenAI, die zijn zorgen had geuit over een geplande functie voor expliciete inhoud, in januari werd ontslagen na een beschuldiging van discriminatie die zij ontkent.

OpenAI voorziet AI-codeerassistenten die snelle bewerkingen en complexe autonome taken combineren

Ondanks de omringende turbulentie suggereert de technische routekaart van OpenAI voor Codex ambitieuze plannen. Het bedrijf heeft een codeerassistent voor ogen die snel en interactief bewerken naadloos combineert met langer lopende autonome taken: een AI die snelle oplossingen afhandelt en tegelijkertijd meerdere agenten orkestreert die op de achtergrond aan complexere problemen werken.

“In de loop van de tijd zullen de modi in elkaar overvloeien. Codex kan je in een nauwe interactieve lus houden terwijl je langerlopend werk delegeert aan subagenten op de achtergrond, of taken parallel uitbreidt naar veel modellen als je breedte en snelheid wilt, zodat je niet van tevoren één enkele modus hoeft te kiezen”, vertelde de OpenAI-woordvoerder aan VentureBeat.

Deze visie zou niet alleen een snellere gevolgtrekking vereisen, maar ook een verfijnde taakdecompositie en coördinatie tussen modellen van verschillende groottes en mogelijkheden. Codex-Spark legt de basis met lage latentie voor het interactieve deel van die ervaring; toekomstige releases zullen de autonome redenering en coördinatie tussen meerdere agenten moeten opleveren die de volledige visie mogelijk zouden maken.

Voor nu, Codex-Spark werkt onder andere tarieflimieten dan andere OpenAI-modellen, wat de beperkte infrastructuurcapaciteit van Cerebras weerspiegelt tijdens de onderzoekspreview. “Omdat het op gespecialiseerde hardware met lage latentie draait, wordt het gebruik bepaald door een aparte snelheidslimiet die kan worden aangepast op basis van de vraag tijdens de onderzoekspreview”, aldus de woordvoerder. De limieten zijn ontworpen om ‘genereus’ te zijn, waarbij OpenAI gebruikspatronen monitort terwijl het bepaalt hoe te schalen.

De echte test is of snellere reacties zich vertalen in betere software

De Codex-Spark-aankondiging arriveert midden hevige concurrentie voor AI-aangedreven ontwikkelaarstools. Het Claude Cowork-product van Anthropic veroorzaakte een uitverkoop van traditionele softwareaandelen vorige week toen investeerders zich afvroegen of AI-assistenten conventionele bedrijfsapplicaties zouden kunnen vervangen. Microsoft, GooglenEn Amazone blijven zwaar investeren in AI-coderingsmogelijkheden die zijn geïntegreerd met hun respectieve cloudplatforms.

OpenAI’s Codex-app heeft een snelle acceptatie laten zien sinds de lancering tien dagen geleden, met meer dan een miljoen downloads en wekelijkse actieve gebruikers die week na week met 60 procent groeien. Meer dan 325.000 ontwikkelaars maken nu actief gebruik van Codex op gratis en betaalde niveaus. Maar de fundamentele vraag waarmee OpenAI – en de bredere AI-industrie – wordt geconfronteerd, is of de snelheidsverbeteringen zullen verbeteren zoals beloofd Codex-Spark vertalen zich in betekenisvolle productiviteitswinsten of creëren alleen maar aangenamere ervaringen zonder de uitkomsten te veranderen.

Vroeg bewijs uit AI-coderingstools suggereert dat snellere reacties meer iteratieve experimenten aanmoedigen. Of die experimenten betere software opleveren, blijft zowel onder onderzoekers als praktijkmensen betwist. Wat duidelijk lijkt is dat OpenAI inferentielatentie beschouwt als een concurrentiegrens die substantiële investeringen waard is, ook al brengt die investering het verder dan het traditionele Nvidia-partnerschap naar onbeproefd terrein met alternatieve chipleveranciers.

De Cerebras-deal is een berekende gok dat gespecialiseerde hardware gebruiksscenario’s kan ontgrendelen die algemene GPU’s niet kosteneffectief kunnen bedienen. Voor een bedrijf dat tegelijkertijd de strijd aangaat met concurrenten, gespannen leveranciersrelaties beheert en interne onenigheid over de commerciële richting doorstaat, herinnert het er ook aan dat stilstaan ​​in de AI-race geen optie is. OpenAI heeft zijn reputatie opgebouwd door snel te handelen en conventies te doorbreken. Nu moet het bewijzen dat het nog sneller kan bewegen – zonder zichzelf te breken.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in