De klacht klinkt bekend. “Ik ben teleurgesteld dat jullie eraan werken om AI-afval in de site op te nemen”, zei een geïrriteerde persoon, anoniem geplaatst, in een online bericht. “Niemand vraagt hierom. We willen dat je de site verbetert en stopt met het in rekening brengen van nieuwe functies.”
Alleen is dit geen gewone internetgebruiker die erover zeurt AI-wezen gedwongen hun favoriete app. In plaats daarvan klagen ze over de plannen van een cybercriminaliteitsforum om meer generatieve AI te introduceren. Net als miljoenen anderen raken oplichters, oplichters en laaggeplaatste hackers geïrriteerd door de indringing van AI in hun leven en de opkomst van AI-slop van lage kwaliteit worden geplaatst in hun online gemeenschappen.
“Mensen houden er niet van”, zegt Ben Collier, veiligheidsonderzoeker en hoofddocent aan de Universiteit van Edinburgh. Als onderdeel van een recent onderzoek naar hoe Cybercriminelen op laag niveau maken gebruik van AI. Collier en collega-onderzoekers zagen een toenemende weerstand tegen het gebruik van generatieve AI in ondergrondse cybercriminaliteitsforums en hackgroepen.
Tijdens de generatieve AI-hausse en hype-cycli van de afgelopen paar jaar zijn sommige mensen die op hackforums posten, van positief over hoe AI kan helpen bij het hacken, overgegaan op een groter scepticisme over de technologie, aldus het onderzoek, waarbij ook onderzoekers van de Universiteit van Cambridge en de Universiteit van Strathclyde betrokken waren.
De onderzoekers analyseerden 97.895 AI-gerelateerde gesprekken op cybercriminaliteitsforums sinds de lancering van ChatGPT in 2022 tot eind vorig jaar. Ze vonden klachten over mensen die “bullet-pointed uitleggers” van fundamentele cyberbeveiligingsconcepten dumpten, klaagden over het aantal berichten van lage kwaliteit en zorgen over Google’s AI-zoekoverzichten het terugdringen van het aantal bezoekers op de forums.
Decennia lang hebben mededelingenborden en marktplaatsen op het gebied van cybercriminaliteit, vaak van Russische oorsprong, oplichters de mogelijkheid gegeven om samen zaken te doen. Het zijn plaatsen waar gestolen gegevens kunnen worden verhandeld, waar hackopdrachten worden geadverteerd en fraudeurs over hun rivalen poepen. Terwijl oplichters proberen elkaar vaak op te lichtende forums hebben ook een gemeenschapsgevoel. Gebruikers bouwen bijvoorbeeld een reputatie op als betrouwbaar en als forumeigenaar schrijfwedstrijden organiseren.
“Dit zijn in wezen sociale ruimtes. Ze haten echt andere mensen die (AI) op de forums gebruiken”, zegt Collier. Hij zegt dat de sociale dynamiek van de groepen kan worden verstoord door potentiële cybercriminelen die proberen een betere reputatie te verwerven door door AI gegenereerde hackuitleg te plaatsen. “Ik denk dat veel van hen een beetje ambivalent staan tegenover AI, omdat het hun claim om een bekwaam persoon te zijn ondermijnt.”
Berichten beoordeeld door WIRED op Hack Forums, een zelfbenoemde ruimte voor diegenen die geïnteresseerd zijn in het praten over hack- en deeltechnieken, tonen irritatie die wordt veroorzaakt door mensen die berichten maken met AI. “Ik zie dat veel leden AI gebruiken voor het maken van hun discussies/posts en het maakt me kwaad omdat ze niet eens de tijd nemen om een paar simpele zinnen te schrijven”, schreef een poster. Een ander verwoordde het botter: “Stop met het posten van AI-shit.”
In verschillende gevallen lijken gebruikers van meerdere forums, zegt Collier, geïrriteerd te zijn door AI-berichten omdat ze vrienden willen maken. “Als ik met een AI-chatbot wil praten, zijn er veel websites waar ik dat kan doen… Ik kom hier voor menselijke interactie”, zegt een bericht dat in het onderzoek wordt geciteerd.
Sinds ChatGPT eind 2022 naar voren kwam, is er aanzienlijke belangstelling voor de mogelijkheden van AI-hacking en hoe de technologie onlinecriminaliteit kan transformeren. Zowel geavanceerde hackers als die minder capabel hebben geprobeerd AI te gebruiken bij hun aanvallen. Terwijl sommige georganiseerde fraudeurs hun activiteiten met steeds meer hebben opgevoerd realistische AI-face-swapping-technologie en social engineering-berichten vertaald met behulp van AIEr is veel aandacht besteed aan de mogelijkheden van generatieve AI om kwaadaardige code te schrijven kwetsbaarheden ontdekken.



