Home Nieuws Advocaat verontschuldigt zich voor valse citaten, verzonnen oordelen gegenereerd door AI in...

Advocaat verontschuldigt zich voor valse citaten, verzonnen oordelen gegenereerd door AI in moordzaak

2
0
Advocaat verontschuldigt zich voor valse citaten, verzonnen oordelen gegenereerd door AI in moordzaak

Een senior advocaat in Australië heeft zijn excuses aangeboden aan een rechter voor het indienen van stukken in een moordzaak inclusief valse citaten en niet-bestaande vonnissen gegenereerd door kunstmatige intelligentie.

De blunder in het Hooggerechtshof van de staat Victoria is de zoveelste blunder in een litanie van ongelukken die AI heeft veroorzaakt in rechtssystemen over de hele wereld.

Advocaat Rishi Nathwani, die de prestigieuze juridische titel van King’s Counsel draagt, nam de “volledige verantwoordelijkheid” op zich voor het indienen van onjuiste informatie in de stukken in de zaak van een tiener die werd beschuldigd van moord, zo blijkt uit gerechtelijke documenten die The Associated Press vrijdag heeft ingezien.

“We betreuren het ten zeerste en schamen ons voor wat er is gebeurd”, zei Nathwani woensdag namens het verdedigingsteam tegen rechter James Elliott.

De fouten veroorzaakten een vertraging van 24 uur bij het oplossen van een zaak die Elliott woensdag had gehoopt af te ronden. Elliott oordeelde donderdag dat de cliënt van Nathwani, die niet kan worden geïdentificeerd omdat hij minderjarig is, zich niet schuldig heeft gemaakt aan moord vanwege een verstandelijke beperking.

“Met het risico van understatement is de manier waarop deze gebeurtenissen zich hebben ontwikkeld onbevredigend”, zei Elliott donderdag tegen advocaten.

“Het vermogen van de rechtbank om te vertrouwen op de juistheid van de opmerkingen van de raadsman is van fundamenteel belang voor een goede rechtsbedeling”, voegde Elliott eraan toe.

De valse inzendingen omvatten verzonnen citaten uit een toespraak voor de wetgevende macht van de staat en niet-bestaande citaten uit rechtszaken, zogenaamd afkomstig van het Hooggerechtshof.

De AI-gegenereerde fouten werden ontdekt door de medewerkers van Elliot, die de aangehaalde zaken niet konden vinden en verzochten dat advocaten kopieën zouden verstrekken, eerder de Australian Broadcasting Corporation gemeld.

De advocaten gaven toe dat de citaten “niet bestaan” en dat de inzending “fictieve citaten” bevatte, aldus gerechtelijke documenten.

De advocaten legden uit dat ze hadden gecontroleerd of de oorspronkelijke citaten juist waren en dat ze er ten onrechte van uitgingen dat de andere ook correct zouden zijn.

De inzendingen werden ook naar officier van justitie Daniel Porceddu gestuurd, die de juistheid ervan niet controleerde.

De rechter merkte op dat het Hooggerechtshof vorig jaar richtlijnen heeft vrijgegeven voor de manier waarop advocaten AI gebruiken.

“Het is niet acceptabel dat kunstmatige intelligentie wordt gebruikt, tenzij het product van dat gebruik onafhankelijk en grondig wordt geverifieerd”, zei Elliott.

De gerechtelijke documenten identificeren niet het generatieve kunstmatige intelligentiesysteem dat door de advocaten wordt gebruikt.

In een vergelijkbare zaak in de Verenigde Staten legde een federale rechter in 2023 boetes van $5.000 op aan twee advocaten en een advocatenkantoor. ChatGPT kreeg de schuld voor hun indiening van fictief juridisch onderzoek in een luchtvaartschadeclaim.

Rechter P. Kevin Castel zei dat ze te kwader trouw handelden. Maar hij geloofde in hun excuses en de corrigerende maatregelen die werden genomen om uit te leggen waarom strengere sancties niet nodig waren om ervoor te zorgen dat zij of anderen zich niet opnieuw door kunstmatige intelligentie-instrumenten zouden laten aanzetten tot het produceren van nep-juridische geschiedenis in hun argumenten.

Later dat jaar werden in juridische documenten meer fictieve rechterlijke uitspraken, uitgevonden door AI, aangehaald ingediend door advocaten van Michael Coheneen voormalige persoonlijke advocaat van de Amerikaanse president Donald Trump. Cohen nam de schuld op zich en zei dat hij zich niet realiseerde dat de Google-tool die hij gebruikte voor juridisch onderzoek ook in staat was tot zogenaamde AI-hallucinaties.

De Britse rechter Victoria Sharp van het Hooggerechtshof waarschuwde in juni dat het verstrekken van vals materiaal alsof het echt zou zijn, kan worden beschouwd als minachting van de rechtbank of, in de ‘meest flagrante gevallen’, als een verstoring van de rechtsgang, waarop een maximale gevangenisstraf van levenslang staat.

Het gebruik van kunstmatige intelligentie heeft op andere manieren zijn weg gevonden naar de Amerikaanse rechtszalen. In april 2025 verscheen een man genaamd Jerome Dewald voor een rechtbank in New York en diende een verzoek in video met daarin een Door AI gegenereerde avatar namens hem een ​​betoog te houden.

Een maand daarna kwam een ​​man om het leven bij een verkeersagressie-incident in Arizona “sprak” tijdens de hoorzitting over de veroordeling van zijn moordenaar nadat zijn familie kunstmatige intelligentie had gebruikt om een ​​video te maken waarin hij een slachtofferimpactverklaring voorlas.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in