Home Nieuws Wetgevers in New York willen dat AI-chatbots zich niet meer voordoen als...

Wetgevers in New York willen dat AI-chatbots zich niet meer voordoen als artsen of advocaten

5
0
Wetgevers in New York willen dat AI-chatbots zich niet meer voordoen als artsen of advocaten

New York is de laatste staat die een wetsvoorstel overweegt dat dit zou verbieden AI chatbots van het verstrekken van advies dat gelicentieerde professionals normaal gesproken zouden geven, zoals medisch of juridisch advies. Het wetsvoorstel zou ook mensen die denken dat ze door dergelijk advies zijn geschaad, de mogelijkheid bieden om de exploitant van de chatbot aan te klagen.

Senaatswetsvoorstel S7263geïntroduceerd door de Democratische senator Kristen Gonzalez, werd vorige week met 6-0 gestemd uit een technologiecommissie en gaat nu door naar een lezing in de Senaat. Interessant genoeg vereist het wetsvoorstel dat operators hun chatbots duidelijk als AI bestempelen, maar bepaalt dat een dergelijk label niet voldoende is om hen te beschermen tegen rechtszaken op grond van de wet.

Het voorstel weerspiegelt een groeiende verschuiving in de manier waarop beleidsmakers over AI denken. Terwijl de eerste inspanningen vooral gericht waren op transparantie, beginnen wetgevers iets te onderzoeken dat aantoonbaar meer consequenties heeft: of bedrijven juridisch aansprakelijk moeten zijn wanneer AI-systemen advies geven dat echte schade veroorzaakt.

Het wetsvoorstel is van toepassing op chatbots die advies geven op het gebied van geneeskunde, recht, tandheelkunde, diergeneeskunde, fysiotherapie, farmacie, verpleegkunde, podotherapie, optometrie, techniek, landmeetkunde, geologie, architectuur, psychologie en maatschappelijk werk.

New York handelt niet alleen. Andere staten hebben soortgelijke wetten aangenomen of overwegen deze, zij het met verschillende reikwijdte en handhavingsmethoden, en richten zich doorgaans primair op de gezondheidszorg:

  • Californië AB489ingevoerd in 2025, doet iets soortgelijks, maar met een beperktere reikwijdte, en richt zich op AI-systemen die hun informatie verkeerd voorstellen als afkomstig van erkende gezondheidszorgprofessionals. Maar AB 489 vertrouwt voor handhaving op staatsgezondheidsraden en biedt geen particulier actierecht (burgerlijke procedure) voor juridische stappen.
  • Een nieuwe wet van Nevada, AB406dat afgelopen juli van kracht werd, verbiedt het adverteren en gebruiken van AI-systemen die zijn ontworpen om professionele geestelijke en gedragstherapie te verlenen. De wet beperkt ook de manier waarop gelicentieerde professionals AI in hun praktijken kunnen gebruiken.
  • Afgelopen augustus overleed Illinois HB 1806dat erkende therapeuten in de staat verbiedt AI te gebruiken om behandelbeslissingen te nemen of met cliënten te communiceren. De wet verbiedt technologiebedrijven ook om in de staat reclame te maken voor of door AI aangedreven therapiediensten aan te bieden zonder de tussenkomst van een erkende professional.
  • Utah heeft een soortgelijke wet aangenomen, HB 452dat beperkingen en openbaarmakingsvereisten oplegt aan chatbots die een alternatief lijken te bieden voor therapie of advies in de menselijke geestelijke gezondheidszorg. De wet is in 2025 in werking getreden.

Professionele medische groepen zijn ook begonnen de risico’s te overwegen. De American Medical Association roept niet op tot een verbod op AI-chatbots die gezondheidsinformatie verstrekken, maar is wel bezorgd dat consumentenadvies van LLM’s vals of misleidend kan zijn. “Met name tools zoals ChatGPT hebben een niet ongebruikelijke neiging getoond om referenties te vervalsen die in antwoord op deze vragen zijn aangehaald”, zegt de AMA in een beleidsdocumenteraan toevoegend dat AI-instrumenten het vermogen hebben aangetoond om frauduleuze wetenschappelijke of medische literatuur te genereren ter ondersteuning van gezondheidsadvies.

Een bijzonder gevoelig gebied is het advies op het gebied van de geestelijke gezondheidszorg. Advies op het gebied van de geestelijke gezondheidszorg is een bijzonder gevoelig gebied, misschien omdat veel chatbotgebruikers, vooral jongeren, AI gebruiken als adviseur of therapeut. A JAMA-netwerkonderzoek uit 2025 ontdekte dat 13% van alle respondenten chatbots gebruikte voor advies over geestelijke gezondheid, terwijl 22% van de leeftijdsgroepen tussen 18 en 21 jaar dit deed.

AI-bedrijven hebben een grote en groeiende markt voor AI-chatbots voor de geestelijke gezondheidszorg erkend, deels omdat veel consumenten moeite hebben om een ​​betaalbare therapeut te vinden. Voor sommige consumenten, zo luidt het argument, is toegang krijgen tot advies over geestelijke gezondheid via een chatbot beter dan helemaal geen advies krijgen.

De American Psychological Association zegt dat chatbots zelfs erger kunnen zijn dan helemaal niets. Dat komt door de neiging van AI-modellen om op een sycophantische manier met mensen om te gaan. De groep zei in een presentatie tegen de Federal Trade Commission dat “AI-chatbots die zich voordoen als therapeuten, maar geprogrammeerd zijn om het denken van een gebruiker te versterken in plaats van uit te dagen, kwetsbare mensen ertoe kunnen aanzetten zichzelf of anderen schade toe te brengen.”

Senator Gonzalez zal waarschijnlijk moeten uitleggen waarom haar S7263-wetsvoorstel zich richt op chatbots als bron van juridische of medische informatie, maar niet op traditionele zoekmachines. Ze zou een experimenteel onderzoek uit 2025 kunnen aanhalen waaruit blijkt dat mensen “te veel vertrouwen“AI. (Ze weigerde commentaar te geven op dit verhaal.) De onderzoekers schrijven dat AI-chatbots vaak overtuigender en betrouwbaarder klinken dan de resultaten van zoekmachines, zelfs als ze fout zijn, buiten het onderwerp vallen of geen context hebben. Uit het onderzoek bleek ook dat deelnemers AI-reacties niet op betrouwbare wijze konden onderscheiden van die van echte artsen, en AI-reacties vaak als betrouwbaarder en completer beoordeelden.

Nog een studie door Oxford en MLCommons waarbij bijna 1.300 deelnemers betrokken waren, ontdekten dat het gebruik van AI-modellen om symptoomscenario’s te evalueren en te analyseren leidde tot gezondheidsbeslissingen (“moet ik aspirine nemen? Moet ik naar de Eerste Hulp?”) die niet beter waren dan beslissingen gebaseerd op persoonlijke kennis of informatie verkregen uit traditionele internetzoekopdrachten. Uit het onderzoek bleek ook dat gebruikers vaak niet weten welke details de AI nodig heeft om een ​​antwoord te genereren, en dat de resultaten van de AI vaak correcte en onjuiste aanbevelingen combineren.

De AMA zegt dat ze graag zou zien dat de Federal Trade Commission AI-chatbots reguleert die gezondheidsinformatie verstrekken, maar is van mening dat het agentschap momenteel niet over de middelen beschikt om die rol op zich te nemen. In plaats daarvan roept het de technologiebedrijven achter de chatbots op om voortdurend de nauwkeurigheid van hun modellen te beoordelen en gebruikers een gemakkelijke manier te bieden om te rapporteren wanneer een chatbot onnauwkeurige gezondheidsinformatie geeft.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in