China is bezig met het aanscherpen van een van de meest voorkomende manieren waarop AI-systemen verbeteren: rechtstreeks leren van gesprekken met gebruikers.
De Cyberspace Administration of China zei in een zaterdag gepubliceerde verklaring dat het maatregelen heeft opgesteld die de manier beperken waarop AI-platforms chatlogboeken kunnen verzamelen en gebruiken voor modeltraining.
Het voorstel heeft tot doel ervoor te zorgen dat ‘mensachtige’ interactieve AI-diensten, inclusief chatbots en virtuele metgezellen, veilig zijn voor gebruikers, aldus de verklaring.
China stimuleert innovatie in ‘mensachtige’ interactieve AI, maar zal dat combineren met bestuur en verstandig, gelaagd toezicht om ‘misbruik en verlies van controle te voorkomen’, voegde het eraan toe.
Volgens de ontwerpregels zouden platforms gebruikers moeten informeren wanneer ze interactie hebben met AI en opties moeten bieden om hun chatgeschiedenis te openen of te verwijderen. Het gebruik van gespreksgegevens voor modeltraining – of het delen ervan met derden – zou expliciete toestemming van de gebruiker vereisen, aldus het bureau.
Voor minderjarigen hebben aanbieders aanvullende toestemming van een voogd nodig voordat ze kunnen delen hun gespreksgegevens met derden. Voogden zouden ook het recht hebben om te verzoeken om verwijdering van de chatgeschiedenis van een minderjarige.
De ontwerpmaatregelen staan open voor openbare raadpleging, en eind januari zal feedback worden gegeven.
Analisten zeggen dat China de veiligheid van AI in evenwicht brengt met voortdurende ontwikkeling
Als de regels definitief worden, kunnen ze het tempo waarin AI-chatbots verbeteren vertragen, zegt Lian Jye Su, hoofdanalist bij Omdia, een technologieonderzoeks- en adviesbureau, tegen Business Insider.
Het beperken van de toegang tot chatlogboeken kan “de mechanismen voor menselijke feedback bij versterkend leren beperken, wat van cruciaal belang is geweest voor de opkomst van boeiende en nauwkeurige conversatie-AI”, zei Su.
Dat gezegd hebbende, is het Chinese AI-ecosysteem ‘robuust’ en heeft het land toegang tot enorme publieke en eigen datasets, voegde hij eraan toe.
Su zei dat deze stap aansluit bij de bredere nadruk die Peking legt op de nationale veiligheid en het collectieve publieke belang. Het aanscherpen van de controle op chatlogboeken geeft aan dat bepaalde gebruikersgesprekken te gevoelig zijn om als gratis trainingsgegevens te worden behandeld, voegde hij eraan toe.
Wei Sun, de hoofdanalist voor AI bij Counterpoint Research, vertelde Business Insider dat deze voorzieningen “minder als rem fungeren en meer als richtingssignalen.”
“De nadruk ligt op het beschermen van gebruikers en het voorkomen van ondoorzichtige datapraktijken, in plaats van het beperken van innovatie”, zei ze.
Sun zei dat het ontwerp aanbieders aanmoedigt – zodra de veiligheid en betrouwbaarheid zijn bewezen – om het gebruik van mensachtige AI uit te breiden naar meer toepassingsgebieden, waaronder culturele verspreiding en gezelschap voor oudere volwassenen.
“In de context van een snel vergrijzende bevolking kunnen ze worden gelezen als een expliciet beleidsduwtje om de ontwikkeling van mensachtige AI-interacties op een gereguleerde, sociaal constructieve en schaalbare manier te versnellen”, voegde ze eraan toe.
Veiligheid van AI-chatlogs
De nieuwe ontwerpregels van China over chatloggegevens komen omdat de bezorgdheid groeit over de manier waarop AI-bedrijven omgaan met zeer persoonlijke gebruikersgesprekken.
Dat meldde Business Insider in augustus contractarbeiders werknemers van Meta en andere technologiegiganten kunnen gebruikersgesprekken met chatbots lezen als onderdeel van het proces van het evalueren van AI-reacties.
Verschillende contractanten vertelden Business Insider dat het materiaal dat zij beoordeelden gevoelige details bevatte die gebruikt konden worden om individuele gebruikers te identificeren. Veel van de gesprekken waren zeer persoonlijk, inclusief uitwisselingen die leken op therapiesessies, privéchats met goede vrienden of intieme gesprekken met romantische partners.
In de AI-servicevoorwaarden van Meta stond dat het gebruikerschatlogs met zijn AI-producten “mag beoordelen”, hetzij via geautomatiseerde systemen, hetzij via menselijke beoordelaars.
Een woordvoerder van Meta vertelde Business Insider dat het bedrijf “strikt beleid” heeft over wie toegang heeft tot persoonlijke gegevens.
“Hoewel we met aannemers samenwerken om de kwaliteit van trainingsgegevens te helpen verbeteren, beperken we opzettelijk de persoonlijke informatie die ze zien, en hebben we processen en vangrails ingevoerd die hen instrueren hoe ze met dergelijke informatie moeten omgaan”, aldus de woordvoerder in het rapport van augustus.
Een Google-ingenieur in AI-beveiliging vertelde Business Insider eerder deze maand dat er bepaalde dingen zijn die hij nooit zou doen delen met chatbots.
“AI-modellen gebruiken gegevens om nuttige antwoorden te genereren, en wij gebruikers moeten onze privé-informatie beschermen, zodat schadelijke entiteiten, zoals cybercriminelen en datamakelaars, er geen toegang toe hebben”, zei hij.


