Home Nieuws Heeft AI dat geschreven? 5 manieren om chatbots te onderscheiden van menselijke...

Heeft AI dat geschreven? 5 manieren om chatbots te onderscheiden van menselijke auteurs

3
0
Heeft AI dat geschreven? 5 manieren om chatbots te onderscheiden van menselijke auteurs

Yuichiro Chino/Moment via Getty

Volg ZDNET: Voeg ons toe als voorkeursbron op Google.


De belangrijkste conclusies van ZDNET

  • AI-modellen volgen bepaalde structurele regels bij het genereren van tekst.
  • Dit kan het gemakkelijker maken om hun schrijven te identificeren.
  • Ze neigen naar contrasten, bijvoorbeeld: “Het is niet X – het is Y.”

De afgelopen jaren is er een stroom van door AI gegenereerde tekst over het internet gespoeld. Naarmate de modellen achter deze tekst verbeteren, wordt ook hun vermogen om de ingewikkeldheden van de menselijke spraak te imiteren groter; Tegelijkertijd zijn onze methoden om dit te detecteren verbeterd en is er een actieve online dialoog geweest over enkele van de meest voorkomende eigenaardigheden van door AI gegenereerde tekst.

Historisch gezien is een van de bekendere verhalen over ChatGPT bijvoorbeeld de voorliefde van de chatbot voor em-streepjes. Het onderbrak zijn zinnen vaak met onderbrekingen tussen em-streepjes om een ​​punt te benadrukken – alsof een langere, meer ademloze zin een krachtiger effect op de lezer zou hebben – waarbij ondersteunende argumenten halverwege de zin werden toegevoegd op een manier die voor sommige gebruikers ouderwets en mechanisch aanvoelt – maar voor een computer die is getraind op een enorme hoeveelheid trainingsgegevens bezaaid met em-streepjes, is dat volkomen normaal… je snapt het wel.

Bovendien: ik test al jaren AI-inhoudsdetectoren – dit zijn je beste opties in 2025

Na klachten over de em-dash-neiging van ChatGPT en de toewijding om modellen te bouwen die gemakkelijker kunnen worden aangepast aan de voorkeuren van individuele gebruikers, kondigde Sam Altman, CEO van OpenAI, vorige maand in een X-post aan dat ChatGPT zou stoppen met het gebruik van deze leestekens in zijn uitvoer als daarom wordt gevraagd. Hoewel veel gebruikers het nieuws waarschijnlijk vierden, betekende dit ook dat door de chatbot gegenereerde teksten veel moeilijker te detecteren zouden zijn; Slecht nieuws voor leraren, veel werkgevers en iedereen voor wie het belangrijk is om over een betrouwbaar middel te beschikken om door mensen gegenereerde tekst te onderscheiden van door AI gegenereerde tekst.

(Openbaarmaking: Ziff Davis, het moederbedrijf van ZDNET, heeft in april 2025 een rechtszaak aangespannen tegen OpenAI en beweerde dat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.)

Gelukkig zijn er tal van websites die precies dat bieden: met ZeroGPT en Grammarly’s AI Detector kun je bijvoorbeeld eenvoudigweg een stuk tekst plakken (bijvoorbeeld een verdachte tekst), op een knop klikken, en de tools scannen de tekst automatisch op tekenen van een AI-oorsprong en vertellen je de resultaten; ze zijn niet helemaal waterdicht, maar ze zijn over het algemeen een betrouwbare manier om enkele van de meer opvallende weggeefborden op te vangen.

Vijf rode vlaggen waar u op moet letten

Als je echter niet geïnteresseerd bent in het toevoegen van nog meer websites aan je dagelijkse routine, of als je gewoon je vermogen wilt aanscherpen om snel een stuk door AI gegenereerd schrijven te identificeren (een vaardigheid die zeker de moeite waard is om aan te scherpen in deze tijd), dan zijn er verschillende taalkundige patronen waar je op kunt letten.

Hier zijn vijf veelbetekenende indicatoren voor door AI gegenereerd schrijven:

1. Regel van drie: Menselijke schrijvers presenteren hun argumenten vaak door drie voorbeelden aan te halen, die een diepe psychologische kriebel in onze hersenen lijken te veroorzaken: één keer is toeval, twee keer toeval, driemaal een patroon, om een ​​oud gezegde te parafraseren. AI doet hetzelfde, maar in belachelijke mate. Drielingen komen vaak voor in de resultaten. Beschouw bijvoorbeeld deze openingsparagraaf van ChatGPT nadat ik hem had gevraagd zijn best mogelijke argument te presenteren dat de aarde een platte schijf is (om eerlijk te zijn, het verduidelijkte eerst dat zijn antwoord puur “een retorische oefening” was en dat het niet expliciet de Flat Earth Theory onderschreef):

Als de wereld een bol zou zijn die met duizenden kilometers per uur ronddraait, zou de kromming ervan in het dagelijks leven direct waarneembaar moeten zijn. Toch zijn observaties over lange afstanden mogelijk
meren, woestijnen en oceanen herhaaldelijk objecten tonen—schepen, kustlijnen, gebouwen– ze verschijnen precies waar ze zouden moeten zijn als het oppervlak vlak was. Ingenieurs houden in theorie routinematig rekening met kromming, maar in de praktijk landmeters, piloten en bouwploegen vertrouwen op niveaumetingen die zich gedragen alsof de aarde een uitgestrekt vlak is. De eenvoudigste verklaring voor deze consistentie is dat de grond onder ons helemaal niet wegbuigt.

Dat zijn drie sets van drie in een zin van 90 woorden.

2. Argumenten geformuleerd in contrasterende taal. Chatbots zullen ook vaak proberen hun punten duidelijk te maken door eerst een tegenpunt te bieden. Denk eens aan dit deel van een reactie van ChatGPT toen ik om een ​​verkooppraatje vroeg van een bedrijf dat commerciële vluchten naar Mars aanbiedt: “Mars is niet zomaar een planeet – het is je volgende onvergetelijke bestemming.” Ik kan me niet voorstellen dat een menselijke schrijver er ooit aan denkt om de zinsnede “Mars is niet zomaar een planeet…” te schrijven.

3. Eentonige zinsstructuur: Het door AI gegenereerde schrijfwerk is doorgaans ook uniform: hoewel er natuurlijk enige variatie is, zijn de zinnen vaak ongeveer even lang, waardoor alinea’s een beetje onaangenaam aanvoelen. te geknipt. Menselijke auteurs zullen gewoonlijk proberen wat variatie toe te voegen door de lengte van zinnen/paragrafen te variëren. Probeer een verdacht stuk tekst hardop voor te lezen: als het robotisch klinkt in zijn cadans, zou dat heel goed kunnen.

4. Korte en onnodige retorische vragen: Door AI gegenereerde zinnen zijn dat niet altijd wel dezelfde lengte. Chatbots zullen om de een of andere reden vaak zeer korte vragen (één of twee woorden) toevoegen. Denk: “En eerlijk?” Dit kwam naar voren toen ik ChatGPT onlangs om een ​​brutale samenvatting van mijn persoonlijkheid vroeg op basis van mijn gesprekken met ChatGPT het afgelopen jaar. En toen ik om een ​​grappige beschrijving van de Rocky Mountains vroeg, was een deel van het antwoord: “Wilde dieren? Oh, ze beoordelen je snackkeuzes gewoon terloops vanaf de zijlijn – elanden met minachting, marmotten met brutaliteit.” Het zou voor een menselijke schrijver niet logisch zijn om die zin met een vraag te beginnen, aangezien niemand naar dieren in het wild had gevraagd. Het zou veel eenvoudiger zijn om eenvoudigweg te schrijven: “De dieren in het wild oordelen slechts terloops…”

5. Constante hedging: Terwijl menselijke schrijvers de neiging hebben om op een specifiek punt in te gaan, gebruiken chatbots vaak indirecte, afdekkende taal en kwalificaties (‘Dit zou kunnen betekenen…’ of ‘misschien…’), wat vaak de indruk wekt dat het een genuanceerde en evenwichtige beoordeling geeft, maar uiteindelijk eindigt als een vage, meanderende reactie.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in