Beschermen bedrijven op het gebied van kunstmatige intelligentie de mensheid tegen de potentiële schade van AI? Zet er niet op in, zegt een nieuw rapport.
Nu AI een steeds grotere rol speelt in de manier waarop mensen omgaan met technologie, worden de potentiële schades steeds duidelijker: mensen die door AI aangedreven chatbots gebruiken voor advies en vervolgens sterven door zelfmoordof het gebruik van AI voor cyberaanvallen. Er zijn ook toekomstige risico’s: AI wordt gebruikt om wapens te maken of regeringen omver te werpen.
Toch zijn er niet genoeg prikkels voor AI-bedrijven om prioriteit te geven aan het veilig houden van de mensheid, en dat komt tot uiting in een AI-veiligheidsindex woensdag gepubliceerd door de in Silicon Valley gevestigde non-profitorganisatie Future of Life Institute, dat tot doel heeft AI in een veiliger richting te sturen en de existentiële risico’s voor de mensheid te beperken.
“Ze zijn de enige industrie in de VS die krachtige technologie maakt die volledig ongereguleerd is, dus dat brengt hen in een race to the bottom tegen elkaar, waar ze gewoon niet de prikkels hebben om prioriteit te geven aan veiligheid”, zei de president van het instituut en MIT-professor Max Tegmark in een interview.
De hoogste algemene cijfers waren slechts een C+, toegekend aan twee AI-bedrijven uit San Francisco: OpenAI, dat ChatGPT produceert, en Anthropic, bekend om zijn AI-chatbotmodel Claude. De AI-divisie van Google, Google DeepMind, kreeg een C.
Nog lager scoorden Facebook’s moederbedrijf in Menlo Park, Meta, en Elon Musk’s in Palo Alto gevestigde bedrijf, xAI, die een D kregen. De Chinese firma’s Z.ai en DeepSeek verdienden ook een D. Het laagste cijfer werd gegeven aan Alibaba Cloud, dat een D kreeg.
De algemene cijfers van de bedrijven waren gebaseerd op 35 indicatoren in zes categorieën, waaronder existentiële veiligheid, risicobeoordeling en informatie-uitwisseling. De index verzamelde bewijsmateriaal op basis van openbaar beschikbaar materiaal en reacties van de bedrijven via een enquête. De score werd uitgevoerd door acht experts op het gebied van kunstmatige intelligentie, een groep waartoe ook academici en hoofden van AI-gerelateerde organisaties behoorden.
Alle bedrijven in de index scoorden onder het gemiddelde in de categorie existentiële veiligheid, waarbij rekening wordt gehouden met interne monitoring- en controle-interventies en existentiële veiligheidsstrategie.
“Hoewel bedrijven hun ambities op het gebied van AGI en superintelligentie versnellen, heeft geen enkele een geloofwaardig plan aangetoond om catastrofaal misbruik of verlies van controle te voorkomen”, aldus het AI Safety Index-rapport van het instituut, waarbij het acroniem voor kunstmatige algemene intelligentie wordt gebruikt.
Zowel Google DeepMind als OpenAI zeiden dat ze investeren in veiligheidsinspanningen.
“Veiligheid is de kern van de manier waarop we AI bouwen en inzetten”, aldus OpenAI in een verklaring. “We investeren zwaar in grensverleggend veiligheidsonderzoek, bouwen sterke beveiligingen in onze systemen en testen onze modellen rigoureus, zowel intern als met onafhankelijke experts. We delen onze veiligheidskaders, evaluaties en onderzoeken om de industrienormen te helpen verbeteren, en we versterken voortdurend onze beveiligingen om ons voor te bereiden op toekomstige capaciteiten.”
Google DeepMind zei in een verklaring dat er “een rigoureuze, wetenschappelijk onderbouwde benadering van AI-veiligheid” nodig is.
“Ons Grensveiligheidskader schetst specifieke protocollen voor het identificeren en beperken van ernstige risico’s van krachtige AI-modellen voordat ze zich manifesteren”, aldus Google DeepMind. “Naarmate onze modellen geavanceerder worden, blijven we innoveren op het gebied van veiligheid en bestuur, in gelijke tred met de mogelijkheden.”
In het rapport van het Future of Life Institute staat dat xAI en Meta “geen enkele verplichting hebben op het gebied van monitoring en controle, ondanks dat ze risicomanagementkaders hebben, en geen bewijs hebben geleverd dat ze meer dan minimaal investeren in veiligheidsonderzoek.” Andere bedrijven zoals DeepSeek, Z.ai en Alibaba Cloud hebben geen openbaar beschikbare documenten over de existentiële veiligheidsstrategie, aldus het instituut.
Meta, Z.ai, DeepSeek, Alibaba en Anthropic hebben geen verzoek om commentaar geretourneerd.
“Legacy Media Lies”, zei xAI in een reactie. Een advocaat die Musk vertegenwoordigde, heeft niet onmiddellijk een verzoek om aanvullend commentaar ingediend.
Musk is ook adviseur van het Future of Life Institute en heeft in het verleden financiering verstrekt aan de non-profitorganisatie, maar was niet betrokken bij de AI Safety Index, aldus Tegmark.
Tegmark zei dat hij bezorgd is dat als er niet genoeg regulering van de AI-industrie is, dit ertoe zou kunnen leiden dat terroristen worden geholpen biowapens te maken, mensen effectiever te manipuleren dan nu het geval is, of in sommige gevallen zelfs de stabiliteit van de overheid in gevaar kan brengen.
“Ja, we hebben grote problemen en de zaken gaan de slechte kant op, maar ik wil benadrukken hoe gemakkelijk dit op te lossen is”, zei Tegmark. “We moeten gewoon bindende veiligheidsnormen hebben voor de AI-bedrijven.”
Er zijn inspanningen binnen de regering geweest om meer toezicht op AI-bedrijven te vestigen, maar sommige wetsvoorstellen hebben weerstand gekregen van technologielobbygroepen die beweren dat meer regelgeving de innovatie zou kunnen vertragen en ertoe zou kunnen leiden dat bedrijven naar elders verhuizen.
Maar er is enige wetgeving die tot doel heeft de veiligheidsnormen bij AI-bedrijven beter te monitoren, waaronder SB 53dat in september werd ondertekend door gouverneur Gavin Newsom. Het vereist dat bedrijven hun veiligheids- en beveiligingsprotocollen delen en incidenten zoals cyberaanvallen aan de staat melden. Tegmark noemde de nieuwe wet een stap in de goede richting, maar er is nog veel meer nodig.
Rob Enderle, hoofdanalist bij adviesbureau Enderle Group, zei dat hij de AI Safety Index een interessante manier vond om het onderliggende probleem van het feit dat AI in de VS niet goed gereguleerd is, te benaderen. Maar er zijn uitdagingen.
“Het is mij niet duidelijk dat de VS en de huidige regering op dit moment in staat zijn om goed doordachte regelgeving te hebben, wat betekent dat de regelgeving uiteindelijk meer kwaad dan goed zou kunnen doen,” zei Enderle. “Het is ook niet duidelijk of iemand een manier heeft gevonden om de regels in de praktijk te brengen om de naleving ervan te garanderen.”



