OpenAI heeft een nieuw AI-model genaamd GPT 5.4-Cyber, maar het komt niet naar jou toe ChatGPT. In ieder geval nog niet. In plaats daarvan doet het bedrijf een beperkte release voor geverifieerde cybersecuritytesters een blogpost dinsdag gedeeld. Deze experts zullen het model op de proef stellen om hiaten en mogelijke jailbreaks te identificeren voordat het model aan het bredere publiek wordt vrijgegeven.
OpenAI gebruikt de feedback van deze testers om “de gedifferentieerde voordelen en risico’s van specifieke modellen te begrijpen, de veerkracht tegen jailbreaks en andere vijandige aanvallen te verbeteren en de defensieve capaciteiten te verbeteren – terwijl de schade wordt beperkt”, aldus het bedrijf.
De modelrelease maakt deel uit van een verbeterde versie van OpenAI’s Trusted Access for Cyber-programma, waarmee geverifieerde cyberbeveiligingsprofessionals en -organisaties vroegtijdig toegang kunnen krijgen tot modellen voor defensie- en preventiewerk. Dit is een veel voorkomende praktijk op het gebied van cyberbeveiliging, die door AI des te waardevoller en noodzakelijker is geworden. Zowel cyberaanvallers als verdedigers zijn bewapend met AI-tools, waardoor cyberbeveiliging steeds meer een AI versus AI-landschap wordt.
Als het gaat om het beveiligen van specifieke AI-modellen, zijn de bedrijven die ze maken ervan overtuigd dat de nieuwste modellen zo gevaarlijk krachtig zijn dat ze extra beveiliging nodig hebben. Dat was de logica erachter Anthropic’s Project Glasswingvorige week aangekondigd. Het model van de volgende generatie van Anthropic, Claude Mythos Preview, is blijkbaar zo krachtig dat het bedrijf zegt dat het al beveiligingskwetsbaarheden heeft gevonden “in elk groot besturingssysteem en elke webbrowser”, aldus een blogpost.
In tegenstelling tot Claude Mythos Preview, waarvan Anthropic zei dat het een geheel nieuw model is, is OpenAI’s GPT-5.4-Cyber een verfijnde versie van het bestaande GPT-5.4 grote taalmodel. Het is aangepast om specifiek op cyberbeveiliging te focussen en heeft lagere vangrails voor beveiligingstaken. In essentie zal GPT-5.4-Cyber minder snel weigeren een riskante cybersecurity-gerelateerde taak uit te voeren dan de normale versies van GPT-5.4. Dat is zodat experts kunnen zien of en hoe het door slechte acteurs kan worden bewapend.
De timing van GPT 5.4-Cyber is waarschijnlijk niet toevallig. Dit is het nieuwste hoofdstuk in de voortdurende strijd om dominantie tussen OpenAI en Anthropic. De bedrijven zijn het hele jaar met elkaar in botsing gekomen om te bewijzen dat hun AI-modellen het meest capabel zijn, vooral als het gaat om overheids- en bedrijfscontracten. Anthropic begon de race met zijn Claude Cowerk En Code tools, die oude technologiebedrijven (en hun aandelenkoersen) uit balans brachten met hun agentencapaciteiten. OpenAI volgde snel met verbeteringen aan zijn Codex-coderingsplatform en modellen, het doden van zijn AI-video-app Sora om de middelen van het bedrijf te heroriënteren.



