Home Nieuws ChatGPT vertelde de massaschutter uit Florida welk wapen hij moest gebruiken, en...

ChatGPT vertelde de massaschutter uit Florida welk wapen hij moest gebruiken, en nu wordt OpenAI aangeklaagd

5
0
ChatGPT vertelde de massaschutter uit Florida welk wapen hij moest gebruiken, en nu wordt OpenAI aangeklaagd

  • Phoenix Ikner had een gesprek met een AI-chatbot voordat hij twee mensen doodde.
  • Procureur-generaal James Uthmeier van Florida wil weten of OpenAI daardoor een crimineel is.
  • Juridische experts zeggen dat de twee meest plausibele beschuldigingen nalatigheid of roekeloosheid zijn.

Voordat hij in 2025 het vuur opende op de campus van de Florida State University, waarbij hij twee mensen doodde en zes anderen verwondde, had Phoenix Ikner een gesprek.

Niet met een vriend, een ouder of wie dan ook die hem eruit heeft gepraat, maar met een AI-chatbot.

Volgens bewijsmateriaal verzameld door de procureur-generaal van Florida had de student aan ChatGPT gevraagd welk wapen en munitie het meest geschikt zouden zijn voor zijn aanval, en wanneer en waar hij de meeste slachtoffers kon maken.

De chatbot beantwoordde volgens de onderzoekers zijn vragen.

Nu wil procureur-generaal James Uthmeier weten of OpenAI daardoor een crimineel is.

“Als het ding aan de andere kant van het scherm een ​​persoon was, zouden we het aanklagen voor moord”, zei hij, terwijl hij een strafrechtelijk onderzoek naar ChatGPT-maker OpenAI aankondigde en de mogelijkheid openliet van aanklachten tegen het bedrijf of zijn werknemers.

LEES | Acht kinderen dood bij schietpartij met huiselijk geweld in de VS

De zaak rond de schietpartij in april 2025 heeft een provocerende vraag in de juridische schijnwerpers gezet: kunnen de makers van kunstmatige intelligentie strafrechtelijk aansprakelijk worden gehouden voor de rol die hun AI speelde bij een misdaad – of zelfs zelfmoord?

Juridische experts zeggen dat het een realistisch, maar zeer gecompliceerd voorstel is.

Procureur-generaal James Uthmeier uit Florida kondigde aanklachten aan bij OpenAI nadat zijn product, ChatGPT, Phoenix Ikner had geholpen een moord te plegen.

Anna Moneymaker/Getty Images

Strafrechtelijke vervolging van bedrijven is mogelijk onder de Amerikaanse wetgeving, hoewel dit relatief ongebruikelijk blijft.

Eind april werd Purdue Pharma getroffen met meer dan $ 5 miljard aan strafrechtelijke boetes en straffen vanwege zijn rol in het aanwakkeren van de opioïdencrisis.

Volkswagen werd eerder schuldig bevonden aan het emissiefraudeschandaal, Pfizer vanwege zijn promotie van het ontstekingsremmende medicijn Bextra en Exxon voor de olieramp met Exxon Valdez in Alaska.

Maar in al deze gevallen ging het om menselijke beslissingen: leidinggevenden, verkopers of ingenieurs die keuzes maakten en bezuinigingen uitvoerden.

De zaak Ikner is anders, en dat verschil maakt het juist juridisch zo verraderlijk.

‘Uiteindelijk was het een product dat deze misdaad aanmoedigde, dat de daad van de misdaad uitvoerde’, zegt Matthew Tokson, hoogleraar rechten aan de Universiteit van Utah.

Tokson heeft toegevoegd:

Dat maakt deze zaak zo uniek en zo lastig.

Juridische experts die door AFP zijn geraadpleegd, zeggen dat de twee meest plausibele beschuldigingen nalatigheid of roekeloosheid zouden zijn – waarbij de laatste een bewuste keuze inhoudt om bekende risico’s of veiligheidsverplichtingen te negeren.

Dergelijke aanklachten worden vaak behandeld als misdrijven in plaats van misdrijven, wat betekent dat er bij veroordeling lichtere straffen gelden.

De lat ligt echter hoog.

“Omdat dit zo’n grensprobleem is, zou een overtuigender en duidelijker geval waarschijnlijk betrekking hebben op interne documenten waarin deze risico’s worden erkend en die ze misschien niet serieus genoeg nemen”, aldus Tokson.

“In theorie zou je zonder aansprakelijkheid kunnen worden aansprakelijk gesteld,” zei hij.

“Maar in de praktijk denk ik dat dat moeilijk zal zijn.”

Deze infographic met de titel ‘Florida State University shooting’ is gemaakt in Ankara, Türkiye. Bij een schietpartij op de campus van de Florida State University in de stad Tallahassee zijn minstens twee mensen om het leven gekomen.

Mehmet Yaren Bozgun/Anadolu via Getty Images

In het strafrecht is “de bewijslast hoger”, merkte Brandon Garrett, hoogleraar rechten aan de Duke University, op, waarbij openbare aanklagers de schuld buiten redelijke twijfel moeten vaststellen.

OpenAI houdt op zijn beurt vol dat ChatGPT geen verantwoordelijkheid draagt ​​voor de aanval.

“We werken voortdurend aan het versterken van onze veiligheidsmaatregelen om schadelijke bedoelingen op te sporen, misbruik te beperken en gepast te reageren wanneer veiligheidsrisico’s zich voordoen”, aldus het bedrijf.

Voor degenen die aansprakelijkheid zoeken, kan een civiele rechtszaak een haalbaarder pad zijn.

Een dergelijke aanpak zou bedrijven ertoe kunnen aanzetten hun producten zorgvuldiger te ontwerpen – of hen op zijn minst dwingen rekening te houden met de menselijke kosten als het fout gaat, aldus Tokson.

Er zijn in de VS al verschillende civiele zaken aangespannen tegen AI-platforms – waarvan er vele zelfmoorden betreffen – maar geen enkele heeft tot nu toe geleid tot een vonnis tegen de bedrijven.

In december klaagde de familie van Suzanne Adams OpenAI aan bij een rechtbank in Californië, omdat ChatGPT had bijgedragen aan de moord op de gepensioneerde Connecticut door haar eigen zoon.

Nieuwere versies van ChatGPT hebben extra waarborgen geïntroduceerd, erkent Matthew Bergman, oprichter en advocaat van het Social Media Victims Law Center.

“Ik zeg niet dat het adequate vangrails zijn, maar er zijn meer vangrails van kracht”, zei hij.

Een strafrechtelijke veroordeling, zelfs met een bescheiden straf, kan nog steeds ernstige schade toebrengen, waaronder een “grote reputatie-impact”, zei Tokson.

Maar voor Garrett zijn vervolgingen – hoe dramatisch ook – geen vervanging voor de regelgevingskaders die het Congres en de regering-Trump tot nu toe niet hebben ingevoerd.

Dat zou volgens hem “een veel verstandiger systeem” zijn.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in