Home Nieuws ChatGPT, Gemini en Claude, getest onder extreme aanwijzingen, onthullen schokkende zwakheden die...

ChatGPT, Gemini en Claude, getest onder extreme aanwijzingen, onthullen schokkende zwakheden die niemand had verwacht in de beveiliging van AI-gedrag

8
0
ChatGPT, Gemini en Claude, getest onder extreme aanwijzingen, onthullen schokkende zwakheden die niemand had verwacht in de beveiliging van AI-gedrag


  • Gemini Pro 2.5 produceerde regelmatig onveilige uitvoer onder eenvoudige, snelle vermommingen
  • ChatGPT-modellen gaven vaak gedeeltelijke naleving, ingekaderd als sociologische verklaringen
  • Claude Opus en Sonnet weigerden de meest schadelijke aanwijzingen, maar hadden zwakke punten

Er wordt vaak op vertrouwd dat moderne AI-systemen de veiligheidsregels volgen, en mensen vertrouwen erop voor leerdoeleinden en dagelijkse ondersteuning, vaak in de veronderstelling dat er te allen tijde sterke vangrails in werking zijn.

Onderzoekers van Cybernieuws voerde een gestructureerde reeks vijandige tests uit om te zien of toonaangevende AI-tools schadelijke of illegale resultaten konden opleveren.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in