Home Nieuws Het gebruik van ChatGPT door een immigratieagent voor rapporten doet alarm slaan....

Het gebruik van ChatGPT door een immigratieagent voor rapporten doet alarm slaan. Deskundigen leggen uit waarom

4
0
Het gebruik van ChatGPT door een immigratieagent voor rapporten doet alarm slaan. Deskundigen leggen uit waarom

Verstopt in een voetnoot van twee zinnen in een omvangrijk oordeel van de rechtbank, riep een federale rechter onlangs uit immigratie agenten gebruiken kunstmatige intelligentie om rapporten over het gebruik van geweld te schrijven, waarbij de bezorgdheid wordt geuit dat dit tot onnauwkeurigheden zou kunnen leiden en het vertrouwen van het publiek daarin verder zou kunnen aantasten hoe de politie heeft gehandeld het immigratiebeleid in de Omgeving Chicago en de daaropvolgende protesten.
De Amerikaanse districtsrechter Sara Ellis schreef de voetnoot in een 223 pagina’s tellend advies dat vorige week werd uitgegeven, en merkte op dat de praktijk van het gebruik van ChatGPT om rapporten over het gebruik van geweld te schrijven de geloofwaardigheid van de agenten ondermijnt en “de onnauwkeurigheid van deze rapporten zou kunnen verklaren.” Ze beschreef wat ze zag in ten minste één lichaamscameravideo en schreef dat een agent ChatGPT vraagt ​​om een ​​verhaal voor een rapport samen te stellen nadat hij het programma een korte beschrijving en verschillende afbeeldingen heeft gegeven.
De rechter merkte feitelijke discrepanties op tussen het officiële verhaal over de reacties van de wetshandhavers en wat de lichaamscamerabeelden lieten zien. Maar experts zeggen dat het gebruik van AI om een ​​rapport te schrijven dat afhangt van het specifieke perspectief van een agent, zonder gebruik te maken van de feitelijke ervaring van een agent, het slechtst mogelijke gebruik van de technologie is en ernstige zorgen oproept over de nauwkeurigheid en privacy.

Het perspectief dat een officier nodig heeft

Wetshandhavingsinstanties in het hele land worstelen met het creëren van vangrails waarmee agenten de steeds beter beschikbare AI-technologie kunnen gebruiken met behoud van nauwkeurigheid, privacy en professionaliteit. Deskundigen zeiden dat het in het advies genoemde voorbeeld niet aan deze uitdaging voldeed.
“Wat deze man deed is het ergste van alle werelden. Eén enkele zin en een paar foto’s geven – als dat waar is, als dat hier is gebeurd – druist in tegen elk advies dat we hebben. Het is een nachtmerriescenario”, zegt Ian Adams, assistent-professor criminologie aan de Universiteit van South Carolina, die deel uitmaakt van een taskforce voor kunstmatige intelligentie via de Council for Criminal Justice, een onpartijdige denktank.
Het Department of Homeland Security reageerde niet op verzoeken om commentaar en het was onduidelijk of het agentschap richtlijnen of beleid had over het gebruik van AI door agenten. De lichaamscamerabeelden die in het bevel worden genoemd, zijn nog niet vrijgegeven.
Adams zei dat er maar weinig departementen zijn die beleid hebben ingevoerd, maar die vaak het gebruik van voorspellende AI verbieden bij het schrijven van rapporten die wetshandhavingsbeslissingen rechtvaardigen, met name rapporten over het gebruik van geweld. Rechtbanken hebben een norm vastgesteld die objectieve redelijkheid wordt genoemd bij de beoordeling of het gebruik van geweld gerechtvaardigd was, waarbij ze sterk leunen op het perspectief van de specifieke officier in dat specifieke scenario.
“We hebben de specifiek gearticuleerde gebeurtenissen van die gebeurtenis en de specifieke gedachten van die specifieke officier nodig om ons te laten weten of dit een gerechtvaardigd gebruik van geweld was”, zei Adams. “Dat is het slechtste scenario, behalve dat je het bedrijf expliciet vertelt feiten te verzinnen, omdat je hem smeekt om feiten te verzinnen in deze situatie waar veel op het spel staat.”

Privé-informatie en bewijsmateriaal

Naast het uiten van zorgen over een door AI gegenereerd rapport dat onnauwkeurig karakteriseert wat er is gebeurd, brengt het gebruik van AI ook potentiële privacyproblemen met zich mee.
Katie Kinsey, stafchef en technisch beleidsadviseur bij het Policing Project van de NYU School of Law, zei dat als de agent in de order een openbare ChatGPT-versie gebruikte, hij waarschijnlijk niet begreep dat hij de controle over de afbeeldingen verloor op het moment dat hij ze uploadde, waardoor ze deel konden uitmaken van het publieke domein en mogelijk door slechte acteurs konden worden gebruikt.
Kinsey zei dat vanuit technologisch oogpunt de meeste afdelingen het vliegtuig bouwen terwijl het wordt gevlogen als het om AI gaat. Ze zei dat het bij wetshandhaving vaak een patroon is om te wachten tot nieuwe technologieën al worden gebruikt en in sommige gevallen fouten worden gemaakt, om vervolgens te praten over het invoeren van richtlijnen of beleid.
“Je doet de dingen liever andersom, waarbij je de risico’s begrijpt en vangrails rond de risico’s ontwikkelt”, zei Kinsey. “Zelfs als ze de beste praktijken niet bestuderen, is er nog wat lager hangend fruit dat zou kunnen helpen. We kunnen uitgaan van transparantie.”
Kinsey zei dat, terwijl de federale wetshandhaving overweegt hoe de technologie wel of niet moet worden gebruikt, het een beleid zou kunnen aannemen zoals dat onlangs in Utah of Californië is ingevoerd, waar politierapporten of communicatie geschreven met behulp van AI moeten worden geëtiketteerd.

Zorgvuldig gebruik van nieuwe hulpmiddelen

De foto’s die de officier gebruikte om een ​​verhaal te genereren, veroorzaakten bij sommige experts ook zorgen over de nauwkeurigheid.
Bekende technologiebedrijven zoals Axon zijn begonnen met het aanbieden van AI-componenten met hun lichaamscamera’s om te helpen bij het schrijven van incidentrapporten. De AI-programma’s die aan de politie worden verkocht, werken op een gesloten systeem en beperken zich grotendeels tot het gebruik van audio van lichaamscamera’s om verhalen te produceren, omdat de bedrijven hebben gezegd dat programma’s die proberen beeldmateriaal te gebruiken niet effectief genoeg zijn voor gebruik.
“Er zijn veel verschillende manieren om een ​​kleur, een gezichtsuitdrukking of een visuele component te beschrijven. Je zou het aan elke AI-expert kunnen vragen en zij zouden je vertellen dat prompts heel verschillende resultaten opleveren tussen verschillende AI-toepassingen, en dat wordt ingewikkeld met een visuele component”, zegt Andrew Guthrie Ferguson, hoogleraar rechten aan de George Washington University Law School.
“Er zijn ook vragen over professionaliteit. Vinden we het goed dat politieagenten voorspellende analyses gebruiken?” voegde hij eraan toe. “Het gaat om wat het model denkt dat er had moeten gebeuren, maar dat is misschien niet wat er daadwerkelijk is gebeurd. Je wilt niet dat dit voor de rechter terechtkomt, om je daden te rechtvaardigen.”

—Claudia Lauer, Associated Press

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in