Home Nieuws Instellingen verdrinken in door AI gegenereerde tekst en kunnen het niet bijhouden

Instellingen verdrinken in door AI gegenereerde tekst en kunnen het niet bijhouden

7
0
Instellingen verdrinken in door AI gegenereerde tekst en kunnen het niet bijhouden

In 2023 verschijnt het sciencefiction-literaire tijdschrift Clarkesworld gestopt met accepteren nieuwe inzendingen omdat er zo veel zijn gegenereerd door kunstmatige intelligentie. Voor zover de redactie kon zien, plakten veel inzenders de gedetailleerde verhaalrichtlijnen van het tijdschrift in een AI en stuurden de resultaten in. En ze waren niet de enigen. Andere fictietijdschriften hebben dat ook meldde een hoog aantal van door AI gegenereerde inzendingen.

Dit is slechts één voorbeeld van een alomtegenwoordige trend. Een oud systeem vertrouwde op de moeilijkheid van schrijven en cognitie om het volume te beperken. Generatieve AI overweldigt het systeem omdat de mensen aan de ontvangende kant het niet bij kunnen houden.

Dit gebeurt overal. Kranten worden overspoeld door AI-gegenereerd brieven aan de redactiezoals het is academische tijdschriften. Wetgevers worden overspoeld met door AI gegenereerde informatie constituerende opmerkingen. Rechtbanken over de hele wereld worden overspoeld met door AI gegenereerde informatie dossiersvooral door mensen die zichzelf vertegenwoordigen. AI-conferenties zijn dat wel overstroomd met door AI gegenereerde onderzoekspapers. Sociale media is overstroomd met De plaag van AI. In muziek, open source-software, onderwijs, onderzoeksjournalistiekEn inhurenhet is hetzelfde verhaal.

Net als de eerste reactie van Clarkesworld hebben sommige van deze instellingen hun indieningsprocessen stopgezet. Anderen hebben het offensief van AI-inputs beantwoord met een defensieve reactie, vaak met een tegenwerkend gebruik van AI. Academisch peer-recensenten maken steeds meer gebruik van AI om papieren te evalueren die mogelijk door AI zijn gegenereerd. Socialemediaplatforms wenden zich tot AI-moderator. Rechtbanksystemen gebruiken AI om triage en proces het aantal rechtszaken wordt vergroot door AI. Werkgevers wenden zich tot AI-hulpmiddelen om sollicitaties van kandidaten te beoordelen. Docenten gebruiken AI niet alleen om rang papieren En examens afnemenmaar als een feedback hulpmiddel voor studenten.

Dit zijn allemaal wapenwedlopen: een snelle, vijandige iteratie om een ​​gemeenschappelijke technologie voor tegengestelde doeleinden toe te passen. Veel van deze wapenwedlopen hebben duidelijk schadelijke gevolgen. De samenleving lijdt als de rechtbanken verstopt raken met frivole, door AI vervaardigde zaken. Er is ook schade als de gevestigde maatstaven voor academische prestaties – publicaties en citaten – terechtkomen bij de onderzoekers die het meest bereid zijn om op frauduleuze wijze door AI geschreven brieven en papers in te dienen, in plaats van bij degenen wier ideeën de meeste impact hebben. De angst is dat frauduleus gedrag, mogelijk gemaakt door AI, uiteindelijk de systemen en instellingen zal ondermijnen waar de samenleving op vertrouwt.

Voordelen van AI

Toch hebben sommige van deze AI-wapenwedlopen verrassende verborgen voordelen, en de hoop is dat in ieder geval sommige instellingen in staat zullen zijn om te veranderen op manieren die ze sterker maken.

De wetenschap lijkt waarschijnlijk sterker te worden dankzij AI, maar toch wordt ze geconfronteerd met een probleem als de AI fouten maakt. Neem het voorbeeld van onzinnigDoor AI gegenereerde frasering filtert in wetenschappelijke artikelen.

Een wetenschapper die een AI gebruikt om te helpen bij het schrijven van een academisch artikel kan een goede zaak zijn, als het zorgvuldig en met openheid wordt gebruikt. AI wordt steeds meer een primair hulpmiddel in wetenschappelijk onderzoek: voor het beoordelen van literatuur, programmeren en voor het coderen en analyseren van gegevens. En voor velen is het een cruciale ondersteuning geworden voor expressie en wetenschappelijke communicatie. Pre-AI, beter gefinancierde onderzoekers zouden mensen kunnen inhuren om hen te helpen bij het schrijven van hun academische papers. Voor veel auteurs wier primaire taal niet het Engels is, inhuren dit soort hulp is duur geweest noodzaak. AI biedt het aan iedereen.

In fictie veroorzaken frauduleus ingediende, door AI gegenereerde werken schade, zowel voor de menselijke auteurs die nu onderhevig zijn aan toenemende concurrentie als voor de lezers die zich mogelijk bedrogen voelen nadat ze onbewust het werk van een machine hebben gelezen. Maar sommige media verwelkomen mogelijk door AI ondersteunde inzendingen met de juiste openbaarmaking en onder bepaalde richtlijnen, en gebruiken AI om deze te beoordelen op basis van criteria als originaliteit, geschiktheid en kwaliteit.

Anderen weigeren misschien door AI gegenereerd werk, maar daar zijn kosten aan verbonden. Het is onwaarschijnlijk dat een menselijke editor of technologie het vermogen kan behouden om menselijk en machinaal schrijven te onderscheiden. In plaats daarvan zullen media die uitsluitend mensen willen publiceren de inzendingen moeten beperken tot een groep auteurs waarvan zij vertrouwen dat ze geen AI gebruiken. Als dit beleid transparant is, kunnen lezers het formaat kiezen dat zij verkiezen en met plezier lezen bij een of beide soorten verkooppunten.

We zien ook geen enkel probleem als een werkzoekende AI gebruikt om zijn cv op te poetsen of betere sollicitatiebrieven te schrijven: de rijken en bevoorrechten hebben lange tijd toegang gehad tot menselijke hulp voor die dingen. Maar het overschrijdt de grens wanneer AI’s eraan gewend zijn leugen over identiteit en ervaring, of om bedriegen op sollicitatiegesprekken.

Op dezelfde manier vereist een democratie dat haar burgers hun mening kunnen uiten aan hun vertegenwoordigers, of aan elkaar via een medium als de krant. De rijken en machtigen kunnen al lang schrijvers inhuren om hun ideeën om te zetten in overtuigend proza, en AI’s die deze hulp aan meer mensen bieden, zijn naar onze mening een goede zaak. Hier kunnen AI-fouten en vooroordelen schadelijk zijn. Burgers gebruiken AI mogelijk voor meer dan alleen een tijdbesparende kortere weg; het kan hun kennis en capaciteiten vergroten, en uitspraken genereren over historische, juridische of beleidsfactoren waarvan redelijkerwijs niet kan worden verwacht dat ze deze onafhankelijk kunnen controleren.

De huidige commerciële AI-tekstdetectoren zijn verre van waterdicht.

Fraudebooster

Wat we niet willen is dat lobbyisten AI gebruiken in kunstgrascampagnes, meerdere brieven schrijven en deze doorgeven als individuele meningen. Ook dit is een ouder probleem dat AI’s steeds erger worden.

Wat hier het positieve van het negatieve onderscheidt, is niet een inherent aspect van de technologie; het is de machtsdynamiek. Dezelfde technologie die de inspanning vermindert die nodig is voor een burger om zijn ervaringen met zijn wetgever te delen, maakt het ook mogelijk dat bedrijfsbelangen het publiek op grote schaal verkeerd voorstellen. De eerste is een machtsgelijkmakende toepassing van AI die de participatieve democratie verbetert; dit laatste is een machtsconcentrerende toepassing die deze bedreigt.

Over het algemeen zijn wij van mening dat schrijfhulp en cognitieve hulp, die al lang beschikbaar waren voor de rijken en machtigen, voor iedereen beschikbaar zouden moeten zijn. +Het probleem komt wanneer AI’s fraude gemakkelijker maken. Bij elke reactie moet een evenwicht worden gevonden tussen het omarmen van de nieuwe democratisering van de toegang en het voorkomen van fraude.

Er is geen manier om deze technologie uit te schakelen. Zeer capabele AI’s zijn overal verkrijgbaar en kunnen op een laptop draaien. Ethische richtlijnen en duidelijke professionele grenzen kunnen helpen – voor degenen die te goeder trouw handelen. Maar er zal nooit een manier zijn om academische schrijvers, werkzoekenden of burgers er volledig van te weerhouden deze instrumenten te gebruiken, hetzij als legitieme hulp, hetzij om fraude te plegen. Dit betekent meer reacties, meer brieven, meer sollicitaties, meer inzendingen.

Het probleem is dat degene die aan de ontvangende kant van deze door AI gevoede zondvloed zit, niet kan omgaan met het toegenomen volume. Wat kan helpen is het ontwikkelen van ondersteunende AI-instrumenten die instellingen en de samenleving ten goede komen, en tegelijkertijd fraude beperken. En dat kan betekenen dat we het gebruik van AI-ondersteuning in deze vijandige systemen moeten omarmen, ook al zal de defensieve AI nooit de overhand krijgen.

Schade in evenwicht brengen met voordelen

De sciencefictiongemeenschap worstelt sinds 2023 met AI. Clarkesworld heropende uiteindelijk de inzendingen, beweren dat het een adequate manier heeft om door mensen geschreven en door AI geschreven verhalen te scheiden. Niemand weet hoe lang of hoe goed dat zal blijven werken.

De wapenwedloop gaat door. Er is geen eenvoudige manier om te bepalen of de potentiële voordelen van AI opwegen tegen de nadelen, nu of in de toekomst. Maar als samenleving kunnen we invloed uitoefenen op de balans tussen de schade die ze aanricht en de kansen die ze biedt, terwijl we ons een weg banen door het veranderende technologische landschap.

Bruce Schneier is adjunct-docent openbaar beleid bij Harvard Kennedyschool.

Nathan Sanders is aangesloten bij het Berkman Klein Center for Internet & Society in Harvard Universiteit.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in