Op zaterdag, techniek ondernemer Siqi Chen uitgegeven een open source plug-in voor Antropische’s Claude Code AI-assistent die het AI-model instrueert te stoppen met schrijven als een AI-model.
De eenvoudige plug-in, genaamd Humanizer, geeft Claude een lijst met 24 taal- en opmaakpatronen die Wikipedia-editors hebben vermeld als chatbot-weggeefacties. Chen publiceerde de plug-in op GitHub, waar deze sinds maandag meer dan 1.600 sterren heeft verzameld.
“Het is erg handig dat Wikipedia een gedetailleerde lijst heeft samengesteld met ‘tekenen van AI-schrijven’,” Chen schreef over X. “Zo erg zelfs dat je gewoon tegen je LLM kunt zeggen dat hij … dat niet moet doen.”
Het bronmateriaal is een gids van WikiProject AI Schooneen groep Wikipedia-redacteuren die sinds eind 2023 op jacht zijn naar door AI gegenereerde artikelen. De Franse Wikipedia-redacteur Ilyas Lebleu heeft het project opgericht. De vrijwilligers hebben meer dan 500 artikelen ter beoordeling getagd en in augustus 2025 gepubliceerd een formele lijst met de patronen die ze bleven zien.
Het hulpmiddel van Chen is een “vaardigheidsbestand” voor Claude Code, de terminalgebaseerde codeerassistent van Anthropic, die een Markdown-geformatteerd bestand bevat dat een lijst met schriftelijke instructies toevoegt (je kunt zie ze hier) toegevoegd aan de prompt die wordt ingevoerd in het grote taalmodel dat de assistent aanstuurt. In tegenstelling tot een normaal systeempromptDe vaardigheidsinformatie is bijvoorbeeld op een gestandaardiseerde manier opgemaakt, zodat Claude-modellen nauwkeuriger zijn afgestemd om met meer precisie te worden geïnterpreteerd dan een gewone systeemprompt. (Aangepaste vaardigheden vereisen een betaald Claude-abonnement waarbij het uitvoeren van code is ingeschakeld.)
Maar zoals bij alle AI-prompts volgen taalmodellen niet altijd perfect de vaardigheidsbestanden. Werkt de Humanizer ook echt? Tijdens onze beperkte tests zorgde het vaardigheidsbestand van Chen ervoor dat de uitvoer van de AI-agent minder nauwkeurig en informeler klonk, maar dit zou enkele nadelen kunnen hebben: het verbetert de feitelijkheid niet en kan de codeervaardigheid schaden.
In het bijzonder kunnen sommige instructies van Humanizer u op een dwaalspoor brengen, afhankelijk van de taak. De Humanizer-vaardigheid omvat bijvoorbeeld deze regel: “Heb een mening. Rapporteer niet alleen feiten, maar reageer erop. ‘Ik weet echt niet hoe ik hierover moet denken’ is menselijker dan het neutraal opsommen van voor- en nadelen.” Hoewel imperfect zijn menselijk lijkt, zou dit soort advies je waarschijnlijk geen goed doen als je Claude zou gebruiken om technische documentatie te schrijven.
Ondanks de nadelen is het ironisch dat een van de meest genoemde regelsets op internet voor het detecteren van door AI ondersteund schrijven sommige mensen kan helpen deze te ondermijnen.
Het ontdekken van de patronen
Hoe ziet AI-schrijven eruit? De Wikipedia-gids is specifiek en bevat veel voorbeelden, maar kortheidshalve geven we je er hier slechts één.
Sommige chatbots houden ervan hun onderwerpen op te fleuren met zinnen als ‘een cruciaal moment markeren’ of ‘staat als een bewijs van’, aldus de gids. Ze schrijven als toeristische brochures, noemen de uitzichten ‘adembenemend’ en beschrijven steden als ‘genesteld in’ natuurgebieden. Ze plakken ‘-ing’-zinnen aan het einde van zinnen om analytisch te klinken: ‘symboliseert de toewijding van de regio aan innovatie.’
Om deze regels te omzeilen, vertelt de Humanizer-vaardigheid Claude dat hij opgeblazen taalgebruik moet vervangen door duidelijke feiten en biedt deze voorbeeldtransformatie:
Voor: “Het Statistisch Instituut van Catalonië werd officieel opgericht in 1989 en markeerde een cruciaal moment in de evolutie van de regionale statistieken in Spanje.”
Na: “Het Statistisch Instituut van Catalonië werd in 1989 opgericht om regionale statistieken te verzamelen en te publiceren.”
Claude zal dat lezen en zijn best doen als patroonvergelijkingsmachine om een resultaat te creëren dat past bij de context van het gesprek of de taak die voorhanden is.
Waarom AI-schrijfdetectie mislukt
Zelfs met zo’n zelfverzekerde reeks regels, opgesteld door Wikipedia-redacteuren, is dat gelukt eerder geschreven over waarom AI-schrijfdetectoren niet betrouwbaar werken: Er is niets inherent uniek aan menselijk schrijven dat het op betrouwbare wijze onderscheidt van LLM-schrijven.
Eén reden is dat, ook al neigen de meeste AI-taalmodellen naar bepaalde soorten taal, ze er ook toe kunnen worden aangezet deze te vermijden, zoals bij de Humanizer-vaardigheid. (Hoewel het soms erg moeilijk is, zoals OpenAI ontdekte in zijn jarenlange strijd tegen het em-streepje.)


