Open AI heeft GPT-5.4-Cyber onthuld, een nieuw AI-model dat mogelijk bereid is schijnbaar kwaadaardige aanwijzingen te accepteren in naam van cyberveiligheid. Gelukkig is de ChatGPT ontwikkelaar laat niet zomaar iedereen spelen met de minder beperkende, meer vrijlopende AI.
Dinsdag werd via een blogpost aangekondigd dat GPT-5.4-Cyber een variant is van OpenAI’s publiekelijk beschikbare GPT-5.4 groot taalmodel. Volgens OpenAI zijn de grensverleggende AI-modellen zoals GPT-5.4 waarborgen hebben tegen duidelijk kwaadwillig gebruik, waardoor ze schadelijke gebruikersverzoeken weigeren, zoals het stelen van inloggegevens of het vinden van kwetsbaarheden in code. Het nieuwe GPT-5.4-Cyber-model van het bedrijf is daarentegen getraind om milder te zijn en in plaats daarvan deze aanwijzingen mogelijk te accepteren.
OpenAI beschrijft GPT-5.4-Cyber als ‘cyber-permissief’ en stelt dat deze verandering bedoeld is om het mogelijk te maken dat de AI wordt gebruikt voor defensieve cyberbeveiligingsmaatregelen, zoals het helpen van onderzoekers bij het vinden van kwetsbaarheden die moeten worden aangepakt.
“We willen verdedigers empoweren door brede toegang te geven tot grenscapaciteiten, inclusief modellen die op maat zijn gemaakt voor cyberbeveiliging”, schreef OpenAI. “Dit is een versie van GPT-5.4 die de weigeringsgrens voor legitiem cyberbeveiligingswerk verlaagt en nieuwe mogelijkheden voor geavanceerde defensieve workflows mogelijk maakt.”
Gezien het potentiële gevaar dat de verlaagde beveiliging van GPT-5.4-Cyber met zich meebrengt, zal niet iedereen er onmiddellijk in kunnen duiken om de AI’s te pushen. aantoonbaar flexibele ethische grenzen nog verder. OpenAI stelt dat het begint met “beperkte, iteratieve implementatie bij doorgelichte beveiligingsleveranciers, organisaties en onderzoekers.” Als zodanig krijgen momenteel alleen leden van het Trusted Access for Cyber (TAC)-programma toegang tot GPT-5.4-Cyber, en alleen degenen op het hoogste niveau.
Mashbare lichtsnelheid
Geïntroduceerd in februariTAC is een netwerk van gebruikers die het geautomatiseerde identiteitsverificatieproces van OpenAI hebben doorlopen, inclusief het voltooien van een identiteitscontrole door de overheid. Na goedkeuring krijgen gebruikers in het TAC-programma van OpenAI toegang tot versies van de AI-modellen met minder waarborgen, zoals GPT-5.4-Cyber. OpenAI stelt dat dit bedoeld is om onderzoek, onderwijs en programmering op het gebied van cybersecurity mogelijk te maken.
Niet elke TAC-goedgekeurde gebruiker zal echter onmiddellijk GPT-5.4-Cyber in handen krijgen. OpenAI stelt dat gebruikers die nog geen deel uitmaken van de hogere niveaus van TAC toegang kunnen vragen, waarvoor verdere authenticatie nodig is om zichzelf te verifiëren als ‘legitieme cyberverdedigers’.
De onthulling van GPT-5.4-Cyber komt slechts een week na de OpenAI-concurrent Anthropic heeft Project Glasswing aangekondigd. Net als TAC is Project Glasswing een initiatief dat het op cybersecurity gerichte Claude Mythos Preview AI-model van Anthropic beperkt tot de selectie van goedgekeurde organisaties. Anthropic beweerde dat Claude Mythos Preview “al duizenden zeer ernstige kwetsbaarheden heeft gevonden”, en verklaarde dat Project Glasswing een poging was om ervoor te zorgen dat zijn AI-model uitsluitend voor defensieve cyberbeveiligingsdoeleinden werd gebruikt.
“Gezien de snelheid waarmee AI vooruitgang boekt, zal het niet lang meer duren voordat dergelijke capaciteiten zich verspreiden, mogelijk buiten de actoren die zich inzetten om ze veilig in te zetten.” Antropisch schreef.
Openbaarmaking: Ziff Davis, het moederbedrijf van Mashable, heeft in april 2025 een rechtszaak aangespannen tegen OpenAI, omdat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.



