Home Nieuws OpenAI wil iemand $555.000 per jaar betalen om de nadelen van AI...

OpenAI wil iemand $555.000 per jaar betalen om de nadelen van AI te verzachten

2
0
OpenAI wil iemand 5.000 per jaar betalen om de nadelen van AI te verzachten

Open AI wil iemand meer dan een half miljoen dollar betalen om de nadelen van AI te verzachten.

Als dat veel geld lijkt, overweeg die dan mogelijke nadelen: banenverlies, desinformatie, misbruik door kwaadwillende actoren, vernietiging van het milieu en de erosie van menselijke keuzevrijheid, om er maar een paar te noemen.

CEO Sam Altman beschreef de baan zaterdag in een X-post als “stressvol”. “Je springt vrijwel onmiddellijk in het diepe”, schreef Altman.

Altman zei dat de functie van ‘hoofd paraatheid’ ‘een cruciale rol is op een belangrijk moment’.

“Modellen verbeteren snel en zijn nu tot veel geweldige dingen in staat, maar ze beginnen ook een aantal echte uitdagingen met zich mee te brengen. De potentiële impact van modellen op de geestelijke gezondheid was iets waar we in 2025 een voorproefje van zagen; we zien nu pas dat modellen zo goed worden in computerbeveiliging dat ze kritieke kwetsbaarheden beginnen te ontdekken”, schreef hij.

OpenAI’s ChatGPT heeft bijgedragen aan de populariteit van AI-chatbots onder consumenten, van wie velen de technologie gebruiken om onderwerpen te onderzoeken, e-mails op te stellen, reizen te plannen of andere eenvoudige taken uit te voeren.

Sommige gebruikers praten ook met de bots als een alternatief voor therapiewat in sommige gevallen de geestelijke gezondheidsproblemen heeft verergerd, waardoor waanvoorstellingen en ander gedrag in de hand zijn gewerkt.

OpenAI zei in oktober dat het samenwerkte met professionals in de geestelijke gezondheidszorg om de manier te verbeteren waarop ChatGPT omgaat met gebruikers die gedrag vertonen, waaronder psychose of zelfbeschadiging.

De kernmissie van OpenAI is het ontwikkelen van kunstmatige intelligentie op een manier die de hele mensheid ten goede komt. Het maakte veiligheidsprotocollen vanaf het begin tot een centraal onderdeel van zijn activiteiten. Toen het bedrijf echter producten begon uit te brengen en de druk om winst te maken groeide, zeiden sommige voormalige medewerkers dat het bedrijf winst boven veiligheid begon te stellen.

Jan Leikide voormalige leider van het inmiddels opgeheven veiligheidsteam bij OpenAI, zei in een post van mei 2024 op X waarin hij zijn ontslag aankondigde dat het bedrijf zijn missie uit het oog had verloren om ervoor te zorgen dat de technologie veilig wordt ingezet.

“Het bouwen van machines die slimmer zijn dan menselijke machines is een inherent gevaarlijke onderneming. OpenAI draagt ​​een enorme verantwoordelijkheid namens de hele mensheid”, schreef hij. “Maar de afgelopen jaren hebben de veiligheidscultuur en -processen een achterbank ingenomen ten opzichte van glanzende producten.”

Minder dan een week later kondigde een andere medewerker zijn ontslag aan op X, ook onder vermelding van veiligheidsproblemen. Een voormalige medewerker, Daniel Kokotajlo, zei in een blogpost van mei 2024 dat hij ontslag nam omdat hij “het vertrouwen verloor dat het zich verantwoordelijk zou gedragen rond de tijd van AGI.”

Kokotajlo vertelde later aan Fortune dat OpenAI aanvankelijk ongeveer dertig mensen had die onderzoek deden naar veiligheidskwesties gerelateerd aan AGI, een nog steeds theoretische versie van AI die net zo goed redeneert als mensen, maar een reeks afwijkingen verminderde dat aantal met bijna de helft.

Het voormalige hoofd van de paraatheid van het bedrijf, Aleksander Madry, nam in juli 2024 een nieuwe rol op zich. De functie maakt deel uit van het Safety Systems-team van OpenAI, dat waarborgen, raamwerken en evaluaties voor de modellen van het bedrijf ontwikkelt. De baan betaalt $ 555.000 per jaar plus eigen vermogen.

“Je wordt de direct verantwoordelijke leider voor het bouwen en coördineren van capaciteitsevaluaties, dreigingsmodellen en mitigaties die een samenhangende, rigoureuze en operationeel schaalbare veiligheidspijplijn vormen”, aldus de vacature.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in