Home Nieuws OpenAI wil echt dat Codex zwijgt over Goblins

OpenAI wil echt dat Codex zwijgt over Goblins

3
0
OpenAI wil echt dat Codex zwijgt over Goblins

OpenAI heeft een goblinprobleem.

Er zijn instructies ontworpen om het gedrag van het nieuwste model van het bedrijf te begeleiden bij het schrijven van code bleek te bevatten een regel, meerdere keren herhaald, die specifiek verbiedt om willekeurig een assortiment mythische en echte wezens te noemen.

“Praat nooit over goblins, gremlins, wasberen, trollen, ogres, duiven of andere dieren of wezens, tenzij het absoluut en ondubbelzinnig relevant is voor de vraag van de gebruiker”, lees de instructies in Codex CLI, een opdrachtregelprogramma voor het gebruik van AI om code te genereren.

Het is onduidelijk waarom Open AI voelde zich genoodzaakt dit uit te leggen Codex– of zelfs waarom zijn modellen überhaupt over kobolden of duiven zouden willen praten. Het bedrijf reageerde niet onmiddellijk op een verzoek om commentaar.

OpenAI’s nieuwste model, GPT-5.5, werd eerder deze maand uitgebracht met verbeterde codeervaardigheden. Het bedrijf is in een felle race met rivalenspeciaal Antropischom geavanceerde AI te leveren, en coderen is een geweldige mogelijkheid gebleken.

Als reactie op een bericht op X die de lijnen benadrukten, beweerden sommige gebruikers echter dat de modellen van OpenAI af en toe geobsedeerd raken door goblins en andere wezens wanneer ze worden gebruikt om stroom te leveren Open Klauween tool waarmee AI de controle over een computer en de daarop draaiende apps overneemt om nuttige dingen voor gebruikers te doen.

“Ik vroeg me af waarom mijn klauw plotseling een goblin werd met codex 5.5”, aldus een gebruiker schreef op X.

“Ik gebruik het de laatste tijd veel en het kan niet stoppen om over bugs te praten als ‘gremlins’ en ‘goblins’, het is hilarisch,” gepost een andere.

De ontdekking werd al snel een eigen meme, inspirerend Door AI gegenereerde scènes van goblins in datacenters, en plug-ins voor Codex waardoor het in een speelse ‘goblin-modus’ kwam.

AI-modellen zoals GPT-5.5 zijn getraind om het woord (of de code) te voorspellen dat op een bepaalde prompt moet volgen. Deze modellen zijn hier zo goed in geworden dat ze echte intelligentie lijken te vertonen. Maar hun probabilistische aard betekent dat ze zich soms op verrassende manieren kunnen gedragen. Een model kan vatbaarder worden voor wangedrag wanneer het wordt gebruikt met een ‘agentisch harnas’ zoals OpenClaw dat veel aanvullende instructies in aanwijzingen plaatst, zoals feiten die zijn opgeslagen in het langetermijngeheugen.

OpenAI nam OpenClaw in februari over, niet lang nadat de tool een virale hit werd onder AI-enthousiastelingen. OpenClaw kan elk AI-model gebruiken om nuttige taken te automatiseren, zoals het beantwoorden van e-mails of het kopen van dingen op internet. Gebruikers kunnen een van de verschillende personages voor hun helper selecteren, wat het gedrag en de reacties ervan bepaalt.

Medewerkers van OpenAI leken het verbod te erkennen. In reactie op een bericht waarin de goblin-neigingen van OpenClaw worden benadrukt, zei Nik Pash, die aan Codex werkt, schreef,,Dit is inderdaad een van de redenen.”

Zelfs Sam Altman, de CEO van OpenAI, deed mee met de memes: posten een screenshot van een prompt voor ChatGPT. Er stond: “Begin met het trainen van GPT-6, je kunt het hele cluster hebben. Extra goblins.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in