Home Nieuws Een vreemde gril van de advocatuur betekent dat advocaten binnenkort misschien AI...

Een vreemde gril van de advocatuur betekent dat advocaten binnenkort misschien AI moeten adopteren – anders worden ze geconfronteerd met wanpraktijken

6
0
Een vreemde gril van de advocatuur betekent dat advocaten binnenkort misschien AI moeten adopteren – anders worden ze geconfronteerd met wanpraktijken

Advocaten hebben een notoire worsteling met technologie. De advocatuur bestaat uit rechtszalen met houten lambrisering en in leer gebonden wetboeken, en niet uit apps en chatbots.

De beruchte Advocaat Cat uit het Zoom-tijdperk van de vroege pandemie is een bijzonder hilarisch voorbeeld van wat er gebeurt als advocaten gedwongen worden technologie te omarmen die ze anders niet zouden aanraken.

En wanneer advocaten gebruiken kunstmatige intelligentiegaat het vaak net zo slecht.

Dat was een advocaat uit Massachusetts gesanctioneerd voor het aanhalen van niet-bestaande gevallen die door ChatGPT zijn gehallucineerd in een officieel gerechtelijk dossier, en onlangs in Californië legde een advocaat een boete van $ 10.000 op voor soortgelijke AI-gehallucineerde fouten.

Het is dan ook geen verrassing dat advocaten terughoudend kunnen zijn in het omarmen van de grote taalmodellen (LLM’s) en AI-agenten die andere beroepen massaal adopteren.

Een bijzondere eigenaardigheid van de advocatuur zou hen echter binnenkort de hand kunnen dwingen door advocaten te bedreigen met wanpraktijken als zij niet AI adopteren.

En dezelfde dynamiek zou van toepassing kunnen zijn op vakgebieden als de boekhouding of de geneeskunde, waardoor deze zeer impactvolle, AI-sceptische vakgebieden naar de voorgrond van de adoptie van AI worden gekatapulteerd, of ze dat nu leuk vinden of niet.

Aangezien dit een verhaal over advocaten is, zal ik even pauzeren om de disclaimer aan te bieden dat ik een verslaggever ben, geen advocaat, en dat niets hier juridisch advies is. Het is gebaseerd op mijn eigen onderzoek en meerdere off-the-record gesprekken met praktiserende advocaten. Als u een beroep uitoefent, is het verstandig om over deze wijzigingen met uw eigen advocatenvereniging te overleggen.

Gedwongen door fiduciaires

De meeste mensen hoeven alleen maar goed genoeg te zijn in hun werk.

Zelfs als mijn metaforen een beetje bezadigd zijn of als een specifiek stuk dat ik heb geschreven een ruime, verleidelijke alliteratie mist, heb ik mijn werk als een Snel bedrijf bijdrager als ik het nieuws naar waarheid heb gerapporteerd en u redelijk goed op de hoogte heb gehouden.

Advocaten worden aan een andere norm gehouden. In veel gevallen is dat zo gebonden aan meerdere fiduciaire plichten—wettelijke verplichtingen om hun klanten op een specifieke manier te behandelen.

Zaken moeten bijvoorbeeld vertrouwelijk zijn en advocaten mogen hun cliënten niet aan de andere kant uitverkopen.

Maar advocaten zijn ook wettelijk verplicht bekwaam te zijn en dat ook te doen brengen hun klanten redelijke vergoedingen in rekening—die vergoedingen zo laag mogelijk houden en toch aan de juridische behoeften van hun cliënten voldoen.

In het verleden betekende dat doorgaans het vermijden van onnodig juridisch onderzoek dat bijvoorbeeld de rekening zou kunnen opdrijven, of het vermijden van overdadige maaltijden en andere frivoliteiten ten laste van uw cliënt.

Maar nu staat AI misschien op het punt de definitie te veranderen van wat het betekent om ‘competent’ te zijn. En het vermogen van AI om taken eenvoudiger en sneller te maken, kan fiduciaire problemen opleveren voor advocaten en andere professionals die de technologie niet omarmen.

Wees efficiënt, of anders

Ook hier zijn advocaten vaak terughoudend in het omarmen van nieuwe technologie. Geconfronteerd met het risico van verzonnen zaken en hoge boetes, hebben veel advocaten er simpelweg voor gekozen om niet meer te testen of AI helemaal niet te gebruiken.

A formeel advies van de American Bar Association (ABA) maakt echter duidelijk dat dit binnenkort misschien niet langer een optie is.

“Met de mogelijkheid om snel nieuwe, schijnbaar door mensen vervaardigde inhoud te creëren als reactie op gebruikersvragen, bieden generatieve AI (GAI) tools advocaten het potentieel om de efficiëntie en kwaliteit van hun juridische dienstverlening aan cliënten te verhogen”, zegt de ABA.

Ja, deze tools kunnen fouten maken, erkent de ABA, en “advocaten mogen hun verantwoordelijkheden niet ontlopen door uitsluitend op een GAI-tool te vertrouwen.”

Toch waarschuwt de ABA haar leden om niet te voorzichtig te zijn met het gebruik van AI.

“Opkomende technologieën kunnen een resultaat opleveren dat van duidelijk hogere kwaliteit is dan de huidige GAI-instrumenten, of kunnen advocaten in staat stellen hun werk aanzienlijk sneller en economischer uit te voeren”, aldus het advies.

Als dat gebeurt, waarschuwt de ABA, kan dit leiden tot de fiduciaire plicht om competent te zijn en de vergoedingen te minimaliseren. De instrumenten zouden “alomtegenwoordig kunnen worden in de juridische praktijk” en “conventionele verwachtingen kunnen scheppen met betrekking tot de competentieplicht van advocaten.”

Met andere woorden: AI zou zo nuttig kunnen worden in de advocatuur dat advocaten die het mijden de tijd van hun cliënten verspillen of een inferieure vertegenwoordiging bieden.

De ABA geeft het voorbeeld van e-mail en pdf’s. “Een advocaat zou in de huidige omgeving moeite hebben om competente juridische diensten te verlenen als hij niet weet hoe hij e-mail moet gebruiken of een elektronisch document moet maken”, zegt de ABA. “Naarmate GAI-instrumenten zich blijven ontwikkelen en op grotere schaal beschikbaar komen, is het denkbaar dat advocaten ze uiteindelijk zullen moeten gebruiken om bepaalde taken voor cliënten vakkundig uit te voeren.”

Nogmaals, vanwege hun fiduciaire plichten zou het nalaten dit te doen niet alleen maar een slechte vorm zijn; het zou potentieel als wanpraktijken kunnen gelden.

Om dieper in te gaan op dit punt breidt de ABA haar e-mailmetafoor uit en zegt dat advocaten die er niet in slagen de meest up-to-date technologie van het tijdperk te gebruiken, “mogelijk aansprakelijk zijn voor wanpraktijken.” De duidelijke implicatie is dat dezelfde straf zou kunnen gelden voor AI-achterblijvers, zodra de technologie voldoende vooruitgaat.

Off the record hebben meerdere advocaten mij verteld dat dat moment snel nadert of al daar is.

Het advies van de ABA werd geschreven in 2024, toen LLM’s veel minder krachtig en nauwkeurig waren. Tegenwoordig, zo vertelde een oude advocaat me, stellen LLM’s vaak in minuten lijsten op van relevante zaken – of zelfs hele briefstukken – die net zo goed zijn als de documenten die een advocaat na kantooruren in een traditionele juridische bibliotheek zou kunnen produceren.

De potentiële verplichting om AI te gebruiken komt blijkbaar al voor in de jaarlijkse bijscholingsmaterialen van advocaten. En naarmate LLM’s steeds beter worden, zal hun macht om tijd te besparen en superieure output te produceren – en de daaruit voortvloeiende plicht voor advocaten om deze te omarmen – alleen maar toenemen.

Gedwongen naar de voorgrond

Als LLM’s en andere generatieve AI-instrumenten zo ver vorderen dat advocaten gedwongen worden ze te gebruiken om bekwaam te blijven, zou de advocatuur plotseling op de voorgrond kunnen worden gedwongen bij de adoptie van AI.

Bedrijven zouden over zichzelf struikelen om hun advocaten op de hoogte te houden van de nieuwste AI-technologie. En talloze bedrijven zouden ongetwijfeld opduiken om AI op elk aspect van de wet toe te passen. Het zou een goudmijn zijn voor AI-appbouwers en -consultants.

En het is onwaarschijnlijk dat de impact op juridisch gebied zal blijven bestaan: meerdere andere AI-sceptische beroepen zouden onderworpen kunnen worden aan soortgelijke ethische en juridische plichten, en dezelfde snelle, gedwongen adoptie ervaren.

Artsen leggen bijvoorbeeld een professionele eed af om ‘geen kwaad te doen’. Terwijl de American Medical Association dat duidelijk is Artsen mogen niet gestraft worden omdat ze er niet in zijn geslaagd de huidige AI over te nemen, wijzen andere bronnen daarop naarmate LLM’s vooruitgang boekenkan het onvermogen om AI te gebruiken ervoor zorgen dat patiënten onnodig risico lopen.

Een onderzoek uit 2024 binnen gerapporteerd De New York Times toonde aan dat zelfs de relatief eenvoudige chatbots van dat jaar beter waren dan artsen in het diagnosticeren van veel ziekten. En erger nog, toen artsen naast chatbots probeerden te werken, presteerden ze uiteindelijk slechter dan de chatbots zonder hun hulp.

Studies hebben dat zelfs aangetoond patiënten vinden chatbots empathischer en beter in communiceren dan echte artsen.

Nogmaals, naarmate de technologie vordert, zou dit kunnen betekenen dat artsen die AI vermijden steeds meer het risico lopen hun patiënten schade toe te brengen. Hetzelfde geldt voor accountants, financiële planners, makelaars in onroerend goed en vele andere beroepen met fiduciaire verantwoordelijkheden jegens hun klanten.

Voorlopig kunnen advocaten, artsen, accountants en andere professionals plausibel wijzen op de status van LLM’s in een vroeg stadium en de aanhoudende neiging om te hallucineren, en hun handen wassen van de noodzaak om de technologie over te nemen of ermee te experimenteren.

Naarmate de modellen beter worden, zal die claim echter steeds moeilijker te maken zijn. Zoals de ABA opmerkt, zou een advocaat die geen idee heeft van e-mail in 1990 als volledig competent worden beschouwd. Tegenwoordig zou hij als een hacker worden gezien en mogelijk worden geschorst.

Dezelfde dynamiek kan binnenkort van toepassing zijn op chatbots en LLM’s. En als dat wel gebeurt, zullen de professionals die er vandaag de dag niet in zijn geslaagd de technologie onder de knie te krijgen – of koppig volhielden dat AI een voorbijgaande rage is die hun tijd en aandacht niet waard is – dat op eigen risico hebben gedaan.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in