Wetgevers in de staat Washington ondernemen opnieuw een poging om kunstmatige intelligentie te reguleren en introduceren deze sessie een reeks wetsvoorstellen die gericht zijn op het beteugelen van discriminatie, het beperken van het gebruik van AI op scholen en het opleggen van nieuwe verplichtingen aan bedrijven die emotioneel responsieve AI-producten bouwen.
De staat heeft in het verleden beperkte AI-gerelateerde wetten aangenomen – waaronder beperkingen op gezichtsherkenning en het verspreiden van deepfakes – maar bredere inspanningen zijn vaak tot stilstand gekomen, waaronder voorstellen Vorig jaar lag de nadruk op transparantie en openbaarmaking van AI-ontwikkeling.
De wetsvoorstellen van dit jaar zijn gericht op kinderen, geestelijke gezondheid en beslissingen die hoge belangen hebben, zoals aanwerving, huisvesting en leningen. De wetsvoorstellen kunnen gevolgen hebben voor HR-softwareleveranciers, ed-techbedrijven, startups in de geestelijke gezondheidszorg en generatieve AI-platforms die in Washington actief zijn.
De voorstellen komen op een moment dat het Congres blijft debatteren over het toezicht op AI, zonder dat er concrete actie wordt ondernomen, waardoor staten met hun eigen vangrails kunnen experimenteren. Een tussentijds rapport onlangs uitgegeven door de staat Washington AI-taskforce merkt op dat de “hands-off” benadering van AI van de federale overheid “een cruciale leemte in de regelgeving heeft gecreëerd die de inwoners van Washington kwetsbaar maakt.”
Hier is een blik op vijf AI-gerelateerde wetsvoorstellen die vooraf zijn ingediend vóór de officiële start van de zittingsperiode, die maandag van start gaat.
Dit ingrijpende wetsvoorstel zou zogenaamde AI-systemen met een hoog risico reguleren die worden gebruikt om beslissingen te nemen of aanzienlijk te beïnvloeden over werkgelegenheid, huisvesting, krediet, gezondheidszorg, onderwijs, verzekeringen en voorwaardelijke vrijlating.
Bedrijven die deze systemen in Washington ontwikkelen of implementeren, zouden de risico’s van discriminatie moeten beoordelen en beperken, bekend moeten maken wanneer mensen met AI omgaan, en moeten uitleggen hoe AI heeft bijgedragen aan ongunstige beslissingen. Consumenten zouden ook uitleg kunnen krijgen voor beslissingen die door AI worden beïnvloed.
Het voorstel zou niet van toepassing zijn op tools met een laag risico, zoals spamfilters of eenvoudige klantenservice-chatbots, noch op AI die uitsluitend voor onderzoek wordt gebruikt. Toch kan dit gevolgen hebben voor een breed scala aan technologiebedrijven, waaronder leveranciers van HR-software, fintech-bedrijven, verzekeringsplatforms en grote werkgevers die geautomatiseerde screeningtools gebruiken. Het wetsvoorstel zou op 1 januari 2027 in werking treden.
Dit wetsvoorstel, aangevraagd door gouverneur Bob Ferguson, richt zich op AI-metgezelchatbots en vereist herhaalde onthullingen dat een AI-chatbot geen mens is, seksueel expliciete inhoud voor minderjarigen verbiedt en protocollen voor zelfmoordpreventie verplicht stelt. Schendingen zouden onder de Consumer Protection Act van Washington vallen.
De bevindingen van het wetsvoorstel waarschuwen ervoor dat AI-chatbots de grens tussen menselijke en kunstmatige interactie kunnen doen vervagen en kunnen bijdragen aan emotionele afhankelijkheid of schadelijke gedachten kunnen versterken, waaronder zelfbeschadiging, vooral onder minderjarigen.
Deze regels kunnen een directe impact hebben op startups op het gebied van de geestelijke gezondheidszorg en welzijn die experimenteren met AI-gestuurde therapie of hulpmiddelen voor emotionele ondersteuning – inclusief bedrijven die op AI gebaseerde geestelijke gezondheidszorg onderzoeken, zoals de startup in Seattle NieuweDagen.
Babak Parviz, CEO van NewDays en voormalig leider bij Amazon, zei dat hij gelooft dat het wetsvoorstel goede bedoelingen heeft, maar voegde eraan toe dat het moeilijk te handhaven zou zijn omdat “het opbouwen van een langetermijnrelatie hier zo vaag wordt gedefinieerd.”
Parviz zei dat het belangrijk is om systemen te onderzoeken die met minderjarigen communiceren om er zeker van te zijn dat ze geen schade aanrichten. “Voor kritische AI-systemen die met mensen communiceren, is het belangrijk om een laag van menselijk toezicht te hebben”, zei hij. “Ons AI-systeem dat in de kliniek wordt gebruikt, staat bijvoorbeeld onder toezicht van een deskundige menselijke arts.”
OpenAI en Common Sense-media werken samen aan een steminitiatief in Californië richtte zich ook op chatbots en minderjarigen.
Een aanverwant wetsvoorstel gaat zelfs nog verder en creëert een potentiële wettelijke aansprakelijkheid wanneer een AI-systeem zou hebben bijgedragen aan iemands zelfmoord.
Volgens dit wetsvoorstel zouden bedrijven te maken kunnen krijgen met rechtszaken als hun AI-systeem zelfbeschadiging zou aanmoedigen, instructies zou geven of er niet in zou slagen gebruikers naar crisisbronnen te leiden – en zouden ze niet mogen beweren dat de schade uitsluitend werd veroorzaakt door autonoom AI-gedrag.
Als de maatregel wordt ingevoerd, zou het ontwerp en de werking van het AI-systeem expliciet worden gekoppeld aan claims wegens onrechtmatige dood. Het wetsvoorstel komt te midden van een groeiend juridisch onderzoek naar chatbots in begeleidende stijl, waaronder rechtszaken waarbij Character.AI en OpenAI betrokken zijn.
Richt zich op het gebruik van AI in basis- en voortgezet onderwijs, door voorspellende ‘risicoscores’ te verbieden die leerlingen als waarschijnlijke onruststokers bestempelen en door real-time biometrische surveillance, zoals gezichtsherkenning, te verbieden.
Scholen zouden ook geen gebruik mogen maken van AI als enige basis voor schorsingen, uitzettingen of doorverwijzingen naar wetshandhavingsinstanties, wat zou versterken dat het menselijk oordeel centraal moet blijven staan bij disciplinaire beslissingen.
Opvoeders en pleitbezorgers van burgerrechten hebben alarm geslagen over voorspellende hulpmiddelen die dat wel kunnen verschillen vergroten op het gebied van discipline.
Dit voorstel actualiseert de wet op het publiciteitsrecht van Washington, zodat expliciet door AI gegenereerde vervalste digitale gelijkenissen worden gedekt, inclusief overtuigende stemklonen en synthetische beelden.
Het zonder toestemming gebruiken van iemands door AI gegenereerde gelijkenis voor commerciële doeleinden kan bedrijven blootstellen aan aansprakelijkheid, waardoor wordt versterkt dat bestaande identiteitsbeschermingen van toepassing zijn in het AI-tijdperk – en niet alleen voor beroemdheden en publieke figuren.


