OpenAI heeft een sleutelrol op het gebied van de veiligheid vervuld door personeel in te huren bij een rivaliserend laboratorium.
Het bedrijf heeft Dylan Scand, een voormalig AI-veiligheidsonderzoeker bij Anthropic, aangesteld als nieuw hoofd paraatheid, een rol die een salaris van maximaal $ 555.000 plus eigen vermogen met zich meebrengt. De rol trok vorige maand de aandacht dankzij het opvallende loonpakket te midden van de toenemende bezorgdheid over de AI-veiligheid van OpenAI.
Sam Altman kondigde de stap woensdag aan in een post op X en zei dat hij “extreem opgewonden” is om Scand te verwelkomen bij OpenAI.
“De zaken gaan behoorlijk snel en we zullen binnenkort met extreem krachtige modellen werken”, schreef Altman.
“Dylan zal leiding geven aan onze inspanningen om ons voor te bereiden op deze ernstige risico’s en deze te beperken. Hij is veruit de beste kandidaat die ik waar dan ook heb ontmoet voor deze rol”, voegde hij eraan toe.
Scand zei woensdag in een post op X over zijn verhuizing dat hij “zeer dankbaar is voor mijn tijd bij Anthropic en de buitengewone mensen met wie ik heb samengewerkt.”
“AI maakt snel vooruitgang. De potentiële voordelen zijn groot – en dat geldt ook voor de risico’s van extreme en zelfs onherstelbare schade”, voegde hij eraan toe.
Vorige maandbeschreef Altman de baan als ‘stressvol’.
“Je springt vrijwel meteen in het diepe”, schreef hij op X.
In de vacature zei OpenAI dat de rol het meest geschikt is voor iemand die technische teams kan leiden, onder onzekerheid hoge beslissingen kan nemen en concurrerende belanghebbenden op één lijn kan brengen rond veiligheidsbeslissingen. Het bedrijf zei ook dat kandidaten diepgaande expertise moeten hebben op het gebied van machine learning, AI-veiligheid en gerelateerde risicogebieden.
Er zijn spanningen ontstaan over de veiligheidsaanpak van OpenAI. Verschillende vroege werknemers – waaronder een voormalig hoofd van het veiligheidsteam – hebben dat gedaan verliet het bedrijf in de afgelopen jaren.
OpenAI heeft ook te maken gehad met rechtszaken van gebruikers die beweren dat de tools hebben bijgedragen aan schadelijk gedrag.
In oktober zei het bedrijf dat sommige ChatGPT-gebruikers mogelijke tekenen van geestelijke gezondheidsproblemen. Naar schatting 560.000 gebruikers per week vertonen “mogelijke tekenen van noodsituaties op het gebied van de geestelijke gezondheidszorg”, aldus het rapport.
Het bedrijf zei ook dat het specialisten in de geestelijke gezondheidszorg raadpleegde om te verfijnen hoe de chatbot reageert wanneer gebruikers tekenen van psychische problemen of ongezonde afhankelijkheid vertonen.

