Home Nieuws Gezondheidschatbots kunnen de weg vrijmaken voor ‘AI-privilege’ in de rechtszaal

Gezondheidschatbots kunnen de weg vrijmaken voor ‘AI-privilege’ in de rechtszaal

6
0
Gezondheidschatbots kunnen de weg vrijmaken voor ‘AI-privilege’ in de rechtszaal

Afgelopen juli, Open AI CEO Sam Altman vertelde virale podcaster Theo Von dat het “verpest” is dat gesprekken met een AI-helper niet dezelfde wettelijke bescherming genieten als gesprekken met een menselijke advocaat.

“Praten met een AI zou hetzelfde moeten zijn als praten met een advocaat of een dokter. Ik hoop dat de samenleving hier snel achter komt”, zegt Altman gepost aan X.

De CEO heeft herhaaldelijk bepleit voor sterkere privacybescherming voor de gesprekken van zijn chatbot met gebruikers, zelfs nu staten hard optreden tegen AI-bots waarvoor reclame wordt gemaakt therapeutisch of juridische deskundigen.

Maar de privacy van gebruikers is niet de enige reden waarom mensen als Altman aandringen op een sterker schild tussen chatbotgesprekken en de rechtbank, vertellen juridische experts aan Mashable – er is ook een zelfzuchtige motivatie. Als LLM’s onaantastbaar blijven voor de rechtbanken, isoleert dit niet alleen AI-gebruikers, maar ook de bedrijven. In feite kunnen de opmerkingen van Altman aan Von ingegeven zijn door die van OpenAI zelf juridische problemen: Rechtbanken eisten dat de AI-gigant de chatlogboeken van zijn gebruikers zou opslaan en uiteindelijk zou overhandigen als juridische ontdekking, een actie die zou kunnen worden geblokkeerd als AI in de ogen van de rechtbank hetzelfde zou worden gezien als een therapeut, arts of advocaat.

Wat is een manier om dat te bereiken? Dring aan op een culturele verschuiving die AI-begeleiding met dezelfde eerbied behandelt als menselijke professionals, te beginnen met onze gezondheid.

Wat is precies ‘AI-privilege’?

“Privilege heeft een bepaalde betekenis voor advocaten en in de juridische context”, legt Melodi Dinçer, senior stafadvocaat voor de Tech Justice-rechtsproject. Er is bijvoorbeeld het standaardrecht tussen advocaat en cliënt, maar ook het privilege tussen psychiater en cliënt en het privilege tussen echtgenoten. Communicatie aan geestelijken, politieke stemmingen en handels- of staatsgeheimen worden ook door rechtbanken erkend. In al deze gevallen is de communicatie tussen de twee partijen vertrouwelijk en niet toegestaan ​​in gerechtelijke procedures.

Staten hebben ook hun eigen privilegeregels, die onder de staatswet vallen voor zaken die bij staatsrechtbanken worden behandeld. Sommige staten, zei Dinçer, verlenen privileges aan gesprekken tussen jou en je huisarts, naast je psychiater. Maar veel staten doen dat niet. Dit wordt allemaal toegelicht in Regel 501 van de Federale bewijsregelslegde Dinçer uit, waardoor federale rechtbanken privileges in grote lijnen kunnen erkennen die de staatsrechtbanken al erkennen.

Als u bijvoorbeeld voor de rechter wordt gedaagd, kan de andere kant van de rechtszaak de aantekeningen van uw therapeut niet toelaten, noch kunnen zij vertrouwelijke gesprekken tussen u of uw advocaat of uw echtgenoot toelaten.

“Het hele doel van (cliëntprivilege) is om eerlijke en open gesprekken te kunnen voeren met deze aanbieders, zodat zij u het beste advies kunnen geven”, zegt Lily Li, advocaat voor gegevensprivacy en AI-risicobeheer en oprichter van Metaverse wetvertelde Mashable. “En vanuit een maatschappelijk perspectief willen we dat individuen openhartig en open en eerlijk zijn tegenover hun advocaat, artsen en psychologen.”

Maar dit zijn voorwaarden die aan menselijke relaties worden gesteld, en niet aan digitale relaties. Als u gelooft dat een AI-chatbot net zo effectief is als een menselijke therapeut of een juridisch adviseur, moet die communicatie dan ook worden beschermd? Sommige AI-ontwikkelaars, zoals Altman, zeggen ja.

AI-chatbots: tools of mensen?

“De Open AI-rechtszaak heeft dit scherp in beeld gebracht”, zegt Li. Ze doelt op een reeks van recentelijk geconsolideerd auteursrechtzaken, 16 in totaal, die de afgelopen jaren tegen OpenAI zijn geopend door uitgevers, kunstenaars en schrijvers. De kwesties die aan de orde zijn – waaronder vragen over redelijk gebruik en hoe om te gaan met de gegevens die worden gebruikt om LLM’s op te leiden – zijn een soort temperatuurmeter om de perceptie van AI in de ogen van de rechtbank te beoordelen.

Daarom houden juridische experts nauwlettend in de gaten hoe rechtbanken AI-ontwikkelaars, hun producten en gebruikersgegevens daarin categoriseren. Meer specifiek moeten ze bijhouden hoe de wet LLM’s behandelt, inclusief hun trainingsgegevens en chatlogboeken, tijdens bewijsmateriaal en ontdekking.

We willen geen situatie waarin er alleen maar sprake is van een puur aansprakelijkheidsschild.

– Lily Li, Metaverse wet

In februari besloot een federale rechter dat juridische strategiedocumenten die waren gegenereerd door de Claude-chatbot van Anthropic – en vervolgens door een cliënt naar hun advocaat werden gestuurd – niet waren toegestaan. valt niet onder het advocaat-cliënt privilege. Het besluit haalde de krantenkoppen. De rechter in de zaak baseerde zich deels op het eigen privacybeleid van Anthropic om te bepalen of de chats beschermd waren. Omdat de regels van Anthropic geen volledige privacy beloven bij het gebruik van het openbare product, en omdat de communicatie niet heeft plaatsgevonden tussen een erkende advocaat met de begrijpen dat ze vertrouwelijk zijnwas het voorrecht niet van toepassing. De documenten waren eerlijk spel.

Maar diezelfde maand een andere rechter in een andere, zij het vergelijkbare zaak oordeelde het tegenovergestelde. In dit geval was het advocaat-cliënt privilege van toepassing op door AI gegenereerd werk, omdat de output een ‘advocaat-cliënt werkproduct’ werd, aldus de rechter. De chatbot was in dit geval geen ‘persoon’, maar een hulpmiddel dat door de raadsman en de cliënt werd gebruikt. Dat is een belangrijk onderscheid, want als de chatbot als een entiteit van een derde partij zou worden gezien, zou de klant er vrijwillig vertrouwelijke informatie aan hebben gegeven op een manier die afstand zou kunnen doen van de erkenning van privileges.

Dit zijn slechts een paar vroege zaken bij de federale arrondissementsrechtbank, waarbij sprake is van zaken die betrekking hebben op de eerste indruk. Kortom, niemand heeft deze vragen ooit gesteld, en we bevinden ons nog maar in de beginfase van het uitzoeken ervan.

Ondertussen hebben de auteursrechtzaken waarbij OpenAI betrokken is, geleid tot meer vragen over ontdekking en gegevens. Niet lang voor de twee bovengenoemde uitspraken, OpenAI met succes beroep aangetekend een besluit waarin werd geoordeeld dat het bedrijf afstand had gedaan van zijn advocaat-cliënt privilege, waardoor toegang tot voorheen bevoorrechte gegevens werd geopend. Het bedrijf kreeg opdracht om het over te dragen miljoenen geanonimiseerde ChatGPT-gesprekslogboekenevenals de interne communicatie.

Bedrijven als OpenAI hebben zich tegen een dergelijke ontdekking verzet en pleiten voor de vertrouwelijkheid ervan. Rechters die vóór het toelaten van gegevens hebben geoordeeld, hebben geredeneerd dat het verwijderen van persoonlijk identificeerbare informatie, het beperken van de focus van logs en het niet extern openbaar maken van gegevens de digitale schatten ontvankelijk maakt voor de rechtbank. Het juridische landschap is bezaaid met dit soort vragen.

Over de hele linie proberen AI-ontwikkelaars ervoor te zorgen dat hun interne gegevens niet ontdekt worden. En hoewel de privacy van gebruikers een van de meest urgente kwesties is in het tijdperk van AI, vormt het opsommen van AI-privileges in een juridische context een raadsel. Hoe beschermen we de privégegevens van gebruikers, zonder het onmogelijk te maken om de makers van AI ter verantwoording te roepen?

“We willen geen situatie waarin er alleen maar sprake is van een puur aansprakelijkheidsschild”, zei Li.


Een nieuwe Mashable-serie, AI + Health, zal onderzoeken hoe kunstmatige intelligentie het medische en gezondheidslandschap verandert. We zullen onderzoeken hoe houd uw gezondheidsgegevens veiligduik erin AI gebruiken om uw bloedonderzoek te ontcijferenleer hoe twee vrouwen gebruiken AI om een ​​gevaarlijke vorm van hartziekte op te sporenen nog veel meer.


Gezondheids-AI is big business

Eerder dit jaar lanceerde OpenAI ChatGPT Health, een nieuwe, op de consument gerichte ‘modus’ voor zijn tentpole-chatbot die van de AI een persoonlijke gezondheidsgoeroe wil maken. Het bedrijf moedigt gebruikers aan om hun medische geschiedenis te uploaden om de ervaring beter te personaliseren. De gegevens zijn momenteel niet beschermd onder de Wet op de portabiliteit en verantwoording van zorgverzekeringen (HIPAA), de dominante gezondheidsprivacyregelgeving van het land.

Andere bedrijven volgden het voorbeeld van OpenAI, waarbij Anthropic, Microsoft en Amazon in de maanden daarna hun eigen gezondheidsgerichte chatbot-metgezellen uitbrachten (sommige HIPAA-compatibel en andere niet). OpenAI-concurrent Google investeert al lang in AI voor medische toepassingen, voornamelijk voor artsen en onderzoekers. Fitbit, eigendom van Google, biedt persoonlijke gezondheidscoaching met behulp van een geïntegreerde Gemini-assistent. Het bedrijf bouwt ook aan een “conversationele diagnostische AI-agent”, ook wel een Articulate Medical Intelligence Explorer (of AMIE) genoemd.

Altman en zijn concurrenten zijn dat wel massaal naar het winstpotentieel van de gezondheidszorgsector, ook al is er nog geen sprake van een AI-privilegeregel. In januari OpenAI heeft de gezondheidsstartup Torch overgenomenen de Door Altman gesteunde MergeLabseen biotechbedrijf dat geïnteresseerd is in hersencomputerinterfaces (BCI’s), kreeg een evaluatie van $ 850 miljoen.

Volgens een recente rapport van Menlo Ventures ging in 2025 1,4 miljard dollar naar gezondheidszorgspecifieke generatieve AI-oplossingen. Het overgrote deel daarvan vloeide naar AI-startups. En deze statistieken omvatten alleen producten van klinische kwaliteit, tools geproduceerd door bedrijven als OpenEvidence en Hippocratic AI, bedoeld voor medische professionals, en niet de uitgaven aan commerciële producten, zoals ChatGPT Health.

Een wereld met het privilege van mens-chatbots?

Onder de producten van niet-klinische kwaliteit, welzijnsapparaten en niet-HIPAA-compatibele chatbots is er sprake van een gebrek aan regelgeving en juridische duidelijkheid alarmeert veel privacy-experts. Sommigen stellen dat het onzekere beleidslandschap een zegen zou kunnen zijn voor AI-ontwikkelaars, die hun eigen AI-producten voor de gezondheidszorg in een regelgevend miasma zouden lanceren in een strategische zet om de winst van het bedrijf te vergroten. En juridische winst.

Naarmate chatbots meer ‘vertrouwelijke’ gesprekken voeren, kunnen er meer privileges onder Regel 501 in het spel zijn. Zouden AI-‘artsen’ ook meetellen in staten die de communicatie met uw arts afschermen? Of denk eens aan een minder voor de hand liggend voorbeeld van Dinçer: stel dat een gebruiker aan een chatbot vraagt ​​hoe hij een seksueel overdraagbare infectie heeft opgelopen ondanks dat zijn partner negatief testte, kunnen de prompt en het antwoord dan als bewijs worden gepresenteerd – of zou dit een andere vorm van bescherming teweegbrengen, zoals huwelijksprivilege?

In een hypothetische wereld met verregaande AI-privileges, of zelfs een wereld waarin chatbots in bestaande privilegeregels worden geïntegreerd, kunnen AI-bedrijven proberen flagrant bewijs van misdrijf te weigeren. Als een AI-bedrijf bijvoorbeeld wordt aangeklaagd wegens het misleiden van individuen over hun gezondheid, kunnen aanklagers geen gebruik maken van interne gegevens of chatanalyses die de gezondheidsgegevens van mensen bevatten.

Misschien, zo suggereert Dinçer, als meer gebruikers hun persoonlijke medische dossiers, röntgenfoto’s of andere gevoelige informatie in het consumentgerichte product invoeren – en als steeds meer AI-bedrijven met elkaar verbonden zijn in een web van persoonlijk identificeerbare informatie en gezondheidstechnologie – zouden rechtbanken eerder geneigd zijn om het idee van privilege dat zich uitstrekt tot AI te koesteren.

Dit kan een deel van de reden zijn dat bedrijven – naast inkomsten – hetzelfde soort vertrouwen in AI-assistenten proberen te wekken als wij in menselijke professionals. Met zovelen raadplegen al AI voor hun gezondheidsbehoeftenen bedrijven als OpenAI al met veel rechtszaken worden geconfronteerd, is het geen mysterie waarom leidinggevenden als Altman chatbotgesprekken buiten de nieuwsgierige blikken van advocaten en rechters willen houden.


De informatie in dit artikel is uitsluitend bedoeld voor educatieve en informatieve doeleinden en is niet bedoeld als gezondheids- of medisch advies. Raadpleeg altijd een arts of een andere gekwalificeerde zorgverlener als u vragen heeft over een medische aandoening of gezondheidsdoelstellingen.

Openbaarmaking: Ziff Davis, het moederbedrijf van Mashable, heeft eerder een rechtszaak aangespannen tegen OpenAI, omdat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in