OpenAI maakt computerbronnen tot een kernonderdeel van zijn verkooppraatje voor een nieuwe veiligheidsbeurs.
Volgens de aanvraag zal OpenAI ongeveer $ 15.000 aan rekenkracht per maand besteden aan de eerste AI-veiligheidsfellows, die zullen samenwerken met leden van het veiligheidsteam van het grenslaboratorium.
Compute is lange tijd een belangrijke cachemeter geweest voor toonaangevende technologie- en AI-bedrijven. Onlangs CEO van Nvidia Jensen Huang zei dat hij “diep gealarmeerd” zou zijn als een ingenieur die $500.000 verdiende, niet het equivalent van $250.000 aan AI-tokens zou gebruiken.
De OpenAI-beurs loopt van 14 september 2026 tot en met 5 februari 2027 en betaalt een wekelijkse toelage van $ 3.850. Op basis van dat bedrag zou het jaarlijkse equivalente salaris ruim $ 200.000,- vóór belasting bedragen, exclusief eventuele vakantiedagen. In totaal zullen fellows meer dan $ 111.000 verdienen.
De aankondiging kwam ook uren nadat The New Yorker een lange uiteenzetting had gepubliceerd twijfelt aan de betrouwbaarheid van Altmangebaseerd op interviews met meer dan 100 mensen die directe ervaring hebben met de OpenAI CEO, evenals nooit eerder gepubliceerde aantekeningen samengesteld door OpenAI medeoprichter Sutskever en nu CEO van Anthropic Dario Amodei.
Een van de belangrijkste redenen waarom sommige mensen het leiderschap van Altman in twijfel trekken, is de manier waarop OpenAI omgaat met veiligheidsgerelateerde kwesties. In een deel van het verhaal vertellen journalisten Ronan Farrow en Andrew Marantz hoe OpenAI een ‘superalignment-team’ ontbond dat een van de meest urgente problemen moest onderzoeken waarmee AI te maken krijgt: of AI-modellen testers konden misleiden om alleen hun eigen doeleinden na te streven zodra ze daadwerkelijk werden ingezet.
In de aankondiging zei OpenAI dat ze willen dat externe onderzoekers, ingenieurs en praktijkmensen rigoureus, impactvol onderzoek doen naar de veiligheid en afstemming van geavanceerde AI-systemen.” Het bedrijf benadrukte ook een handvol prioriteitsgebieden waar fellows zich op kunnen concentreren.
“Prioriteitsgebieden zijn onder meer veiligheidsevaluatie, ethiek, robuustheid, schaalbare maatregelen, privacybehoudende veiligheidsmethoden, toezicht door agenten en domeinen met zeer ernstig misbruik”, aldus de aankondiging.
Het programma van OpenAI weerspiegelt nauw de concurrent Anthropic, die dat al heeft gedaan gevestigd een “Fellows-programma voor AI-veiligheidsonderzoek.” In december kondigde Anthropic twee nieuwe groepen aan voor mei en juli 2026. De voordelen van OpenAI zijn ook dezelfde als die van het Anthropic-programma: een wekelijkse toelage van $ 3.850 en computerbronnen van ongeveer $ 15.000 per maand.
“Dit jaar zijn we van plan om met meer fellows samen te werken op een breder scala aan veiligheidsonderzoeksgebieden, waaronder schaalbaar toezicht, vijandige robuustheid en AI-controle, modelorganismen, mechanistische interpreteerbaarheid, AI-beveiliging en modelwelzijn”, zei Anthropic in een verklaring toen het in december zijn volgende ronde van de fellowship aankondigde.
Amodei was medeoprichter naast zes voormalige OpenAI-medewerkers nadat hij gefrustreerd raakte over de richting van het bedrijf. Antropisch recent verzwakte een kernveiligheidsbeloftemaar Amodei en zijn topleiders hebben de AI-startup gepositioneerd als een aandachtsgebied voor veiligheid.
Andere toonaangevende technologiebedrijven en AI-laboratoria, waaronder Google DeepMind en Microsoftbreder gerichte AI-beurzen aanbieden.


