Een kunstmatige intelligentie onderzoeker verliet deze week zijn baan bij het Amerikaanse bedrijf Anthropic met een cryptische waarschuwing over de toestand van de wereld, wat het laatste ontslag markeerde in een golf van vertrek over veiligheidsrisico’s en ethische dilemma’s.
In een brief geplaatst op Xschreef Mrinank Sharma dat hij alles had bereikt waarop hij had gehoopt tijdens zijn tijd bij de AI veiligheidsbedrijf en was trots op zijn inspanningen, maar liet de angst varen dat de ‘wereld in gevaar is’, niet alleen vanwege AI, maar door een ‘hele reeks onderling verbonden crises’, variërend van bioterrorisme tot zorgen over de ‘sycofantie’ van de industrie.
Hij zei dat hij zich geroepen voelde om te schrijven, een graad in poëzie te behalen en zich te wijden aan ‘de praktijk van moedig spreken’.
“Gedurende mijn tijd hier heb ik herhaaldelijk gezien hoe moeilijk het is om onze daden echt door onze waarden te laten bepalen,” vervolgde hij.
Anthropic werd in 2021 opgericht door een afgescheiden groep voormalige OpenAI-medewerkers die beloofden een meer op veiligheid gerichte benadering van AI-ontwikkeling te ontwerpen dan zijn concurrenten.
Ontvang het laatste nationale nieuws
Voor nieuws dat van invloed is op Canada en de rest van de wereld kunt u zich aanmelden voor de laatste nieuwswaarschuwingen die rechtstreeks aan u worden verzonden wanneer ze zich voordoen.
Sharma leidde het onderzoeksteam op het gebied van AI-veiligheid van het bedrijf.
Anthropic heeft rapporten uitgebracht waarin de veiligheid van zijn eigen producten wordt geschetst, waaronder Claude, zijn hybride redenerende grote taalmodel, en brengt zichzelf op de markt als een bedrijf dat zich inzet voor het bouwen van betrouwbare en begrijpelijke AI-systemen.
Het bedrijf kreeg vorig jaar kritiek nadat het ermee instemde 1,5 miljard dollar te betalen om een class action-rechtszaak te schikken van een groep auteurs die beweerden dat het bedrijf illegale versies van hun werk gebruikte om zijn AI-modellen te trainen.
Het ontslag van Sharma komt in dezelfde week dat OpenAI-onderzoeker Zoë Hitzig haar ontslag aankondigde essay in de New York Timesdaarbij verwijzend naar zorgen over de advertentiestrategie van het bedrijf, inclusief het plaatsen van advertenties in ChatGPT.
“Ik geloofde ooit dat ik de mensen die AI bouwen kon helpen de problemen voor te zijn die het zou veroorzaken. Deze week bevestigde mijn langzame besef dat OpenAI lijkt te zijn gestopt met het stellen van de vragen die ik had willen helpen beantwoorden”, schreef ze.
“Mensen vertellen chatbots over hun medische angsten, hun relatieproblemen, hun overtuigingen over God en het hiernamaals. Advertenties die op dat archief zijn gebouwd, creëren een potentieel om gebruikers te manipuleren op manieren die we niet kunnen begrijpen, laat staan voorkomen.”
Anthropic en OpenAI raakten onlangs verwikkeld in een publieke ruzie na Anthropic heeft een Super Bowl-advertentie uitgebracht kritiek op het besluit van OpenAI om advertenties op ChatGPT weer te geven.
In 2024 zei Sam Altman, CEO van OpenAI, dat hij geen fan was van het gebruik van advertenties en deze als ‘laatste redmiddel’ zou inzetten.
Vorige week betwistte hij de bewering van de commercial dat het insluiten van advertenties misleidend was met een lange post waarin hij Anthropic bekritiseerde.
“Ik denk dat het de verantwoordelijkheid van Anthropic doublespeak is om een misleidende advertentie te gebruiken om theoretische misleidende advertenties te bekritiseren die niet echt zijn, maar een Super Bowl-advertentie is niet waar ik die zou verwachten”, schreef hij, eraan toevoegend dat advertenties vrije toegang zullen blijven mogelijk maken, wat volgens hem “agentschap” creëert.
Medewerkers van concurrerende bedrijven – Hitzig en Sharma – uitten beiden hun ernstige bezorgdheid over de erosie van de leidende principes die zijn opgesteld om de integriteit van AI te behouden en de gebruikers ervan tegen manipulatie te beschermen.
Hitzig schreef dat er mogelijk al sprake is van een “erosie van de eigen principes van OpenAI om de betrokkenheid te maximaliseren” bij het bedrijf.
Sharma zei dat hij zich zorgen maakte over het vermogen van AI om ‘de mensheid te verstoren’.
© 2026 Global News, een divisie van Corus Entertainment Inc.




