Als de proef tussen Elon Musk en OpenAI zijn tweede week afsloot, begon de CEO van Tesla punten te scoren tegen Sam Altman.
Zijn getuigen kregen drie stevige klappen als getuigenis over hoe Altman leidt OpenAI als CEOwaarin hij zorgen uitte over zijn toewijding aan de veiligheid van AI, de missie van de non-profitorganisatie en zijn eerlijkheid als leider van de organisatie.
Het valt nog te bezien wat de jury van de getuigenis zal denken, en in hoeverre deze een rol zal spelen in hun beslissing over het al dan niet vinden van Altman en de ChatGPT-maker aansprakelijk in het geval. Musk beweert Altman en OpenAI-president Greg Brockman ‘plunderden’ de liefdadigheidsinstelling die ze in 2015 samen waren begonnen door een partnerschap met Microsoft aan te gaan.
Deze week riep het juridische team van Musk een parade van getuigen bijeen die zich afvroegen of Altman in het belang van de non-profitorganisatie handelde.
Donderdag was dat onder meer een voormalige OpenAI-veiligheidsonderzoeker, die een langzame erosie van de veiligheidsteams van het bedrijf beschreef, wat haar ertoe aanzette het bedrijf te verlaten. Getuigen deelden ook verhalen over het bedrijf dat producten lanceerde zonder de juiste veiligheidsbeoordelingen – of medeweten van het bestuur.
Dit is wat ze zeiden:
Een veiligheidsonderzoeker van OpenAI zegt dat ze is gestopt vanwege veiligheid
Rosie Campbell getuigde over haar tijd bij OpenAI als veiligheidsonderzoeker. Bloomberg/Getty-afbeeldingen
Rosie Campbell, een voormalig veiligheidsonderzoeker op het gebied van kunstmatige intelligentie bij OpenAI, getuigde dat ze geloofde dat de organisatie haar toewijding aan veiligheid opgaf toen ze daar tussen 2021 en 2024 werkte.
Campbell getuigde dat toen ze bij OpenAI begon te werken, er twee teams waren die zich toelegden op de veiligheid van kunstmatige intelligentie op de lange termijn. Eén ervan zorgde ervoor dat AI in lijn was met menselijke waarden. De andere, waaraan ze werkte, ging over het voorbereiden van de wereld op bovenmenselijke kunstmatige intelligentie.
Maar na verloop van tijd werd OpenAI meer productgericht, zei ze.
Beide AI-veiligheidsteams voor de lange termijn werden geëlimineerd. Campbell zei dat ongeveer de helft van haar team OpenAI verliet in plaats van een andere baan bij het bedrijf te krijgen.
Wanneer de Het OpenAI-bestuur heeft Altman afgezet Als CEO ondertekende Campbell een brief waarin hij opriep tot zijn herstel. Ze vertelde de jury dat ze dat alleen deed omdat ze vreesde dat zonder hem OpenAI-medewerkers bij Microsoft zouden gaan werken, waarvan ze dacht dat het nog minder waarschijnlijk zou zijn dat ze zich zouden bezighouden met AI-veiligheid.
“Ik had destijds begrepen dat de beste manier voor OpenAI om niet uiteen te vallen en in elkaar te storten zou zijn dat Sam zou terugkeren”, zei ze.
Op een gegeven moment heeft Campbell OpenAI gecrediteerd. Ze zei dat xAI, het kunstmatige-intelligentiebedrijf van Musk, waarschijnlijk een inferieure benadering van veiligheid had dan OpenAI.
Een ex-bestuurslid noemde Altman een leugenaar
Tasha McCauley, hier afgebeeld in 2014, maakte deel uit van het OpenAI-bestuur dat Sam Altman afzette. Jerod Harris/Getty Images voor Kairos Society
Een afzetting van Tasha McCauley gestapeld op eerdere getuigenissen van mede-ex-OpenAI-bestuurslid Helen Toner over hoe weinig ze Altman vertrouwden en de ‘giftige cultuur’ waar hij leiding aan gaf.
Volgens McCauley had Altman “chaos” en “crisis” veroorzaakt door een “cultuur van liegen en bedrog” te bevorderen die naar andere leden van OpenAI’s leiderschap was doorgesijpeld.
McCauley getuigde dat Altman oneerlijk was geweest over de lancering van een model voor kunstmatige intelligentie, GPT4-Turbo. Altman zei ten onrechte dat de juridische afdeling van OpenAI hem dat had verteld dat het niet door een interne veiligheidsraad hoefde te worden beoordeeld vóór de lancering in India, zei McCauley.
Het voormalige bestuurslid zei dat de oneerlijkheid van Altman elke paar maanden tot ‘crisisgebeurtenissen’ had geleid. Ze zei dat ze een e-mail had ontvangen van het voormalige OpenAI-bestuurslid Ilya Sutskever, waarin ’tientallen pagina’s met voorbeelden werden beschreven van verschillende chaotische gebeurtenissen die hadden plaatsgevonden als gevolg van Sams gedrag of de leugens die hij had verteld’.
De non-profitexpert van Musk nam Altman ook ter verantwoording
David Schizer, voormalig decaan van de Columbia Law School, getuigde voor Elon Musk als getuige-deskundige op het gebied van non-profit bestuur. Tom Williams/CQ-Roll Call, Inc via Getty Images
De advocaten van Musk riepen vervolgens David Schizer naar de stand om te praten over non-profitwetgeving. Dit klinkt misschien saai, maar het is de sleutel tot de zaak – en de hoogleraar rechten aan de Columbia Law School heeft, met de hulp van Musks advocaat, goed werk geleverd door het over Altman te maken.
De advocaat van Musk, Steven Molo, beoordeelde een lijst met de acties van Altman, zoals eerder beschreven door getuigen, om te bepalen of deze consistent waren met OpenAI’s ‘veiligheid eerst’-missie en ‘non-profitgebruik en -praktijk’.
Het antwoord was vrijwel onvermijdelijk nee.
Molo vroeg Schizer bijvoorbeeld naar klachten dat OpenAI, onder Altman, producten lanceerde zonder medeweten van het bestuur. Eén vraag betrof klachten dat Microsoft een versie van GPT-4 had getest zonder eerst het veiligheidsbeoordelingsproces van het bedrijf te doorlopen.
“Het bestuur en de CEO moeten samenwerken, om ervoor te zorgen dat de missie wordt gevolgd”, aldus Schizer.
“Als de CEO die informatie achterhoudt, is dat een groot probleem”, zei hij.

