Home Nieuws Wat zijn AI-tarpits? Inzicht in de hulpmiddelen die mensen gebruiken om LLM’s...

Wat zijn AI-tarpits? Inzicht in de hulpmiddelen die mensen gebruiken om LLM’s te vergiftigen

6
0
Wat zijn AI-tarpits? Inzicht in de hulpmiddelen die mensen gebruiken om LLM’s te vergiftigen

Om een ​​chatbot intelligenter te maken, en dus nuttiger voor de eindgebruiker, moet hij voortdurend gegevens assimileren. Dit proces staat bekend als ‘training’. Het probleem is dat er zoveel zijn AI bedrijven vragen nooit expliciet om toestemming van gegevenseigenaren voordat ze hun webpagina’s schrapen en de gegevens eraan toevoegen de corpora van de grote taalmodellen (LLM’s) die AI-chatbots aandrijven.

Maar sommige van die data-eigenaren, ook wel contentmakers of IP-houders genoemd, vechten nu terug. Ze doen dit door gebruik te maken van hulpmiddelen die bekend staan ​​als ‘tarpits’. Hun doel? Om de onderliggende LLM van de chatbot te vergiftigen en zo de kwaliteit van zijn output te verslechteren, wat mogelijk een vlucht voor de eindgebruiker kan veroorzaken. Dit is wat je moet weten.

Wat is AI-vergiftiging?

AI-vergiftiging is het proces waarbij het onderliggende grote taalmodel van een AI-chatbot wordt beschadigd, zodat de chatbot onjuiste, misleidende of volkomen gestoorde resultaten geeft. Deze corruptie wordt bereikt door de LLM te misleiden om onjuiste gegevens te assimileren tijdens zijn training, wat vaak inhoudt dat elke mogelijke website en afbeelding die hij kan vinden, wordt geschrapt.

Er zijn veel manieren waarop een LLM kan worden vergiftigd, afhankelijk van de capaciteiten van de LLM die de gifmenger wil verstoren.

Als iemand bijvoorbeeld een LLM-beeldgenerator wil vergiftigen, kan hij of zij een techniek gebruiken die bekend staat als ‘Nightshading’, waarbij gebruik wordt gemaakt van een stukje software genaamd Nightshade om een ​​onzichtbare laag aan een afbeelding toe te voegen. Deze laag bevat pixels die onzichtbaar zijn voor het menselijk oog, maar zichtbaar voor LLM-schrapers. Deze pixels zorgen er vervolgens voor dat het kunstwerk er voor de AI uitziet alsof het in een andere stijl is dan het in werkelijkheid is (bijvoorbeeld abstract in plaats van realistisch), waardoor de LLM de werkelijke stijl van de kunstenaar niet kan nabootsen.

Natuurlijk werken de meeste chatbots met tekst en niet met afbeeldingen, waardoor vergiftigingstools als Nightshade onbruikbaar worden tegen het ongeoorloofd AI-scrapen van artikelen en blogs. Maar de afgelopen jaren doet er een nieuw soort AI-vergiftigingstools de ronde die tot doel hebben LLM’s te misleiden om te trainen met nutteloze gegevens. Deze gereedschappen staan ​​bekend als tarpits.

Wat zijn AI-tarpits?

AI-tarpits zijn een specifiek type AI-vergiftigingstool die is ontworpen om de crawlers die LLM’s gebruiken te misleiden om nutteloze gegevens op te nemen. Omdat de LLM deze ongewenste gegevens vervolgens gebruikt om zijn tekstuitvoer te genereren, zullen die uitvoer onjuist zijn, wat de kwaliteit van de antwoorden van de AI verslechtert en uiteindelijk gebruikers zou kunnen ontmoedigen de chatbot te gebruiken.

Er zijn talloze tarpit-traps die makers van inhoud en IP-houders aan hun websites kunnen toevoegen, waaronder Nepenthes, IocaïneEn Quichot. Wanneer een LLM-crawler een website bezoekt met de tarpit ingebed in de code, wordt de crawler omgeleid om automatisch gegenereerde, nutteloze tekst te assimileren die ofwel vol zit met onjuiste informatie (bijvoorbeeld Steve Jobs richtte Microsoft op in 1834) of volledig onzinnige informatie (bijvoorbeeld de kleur van water is pepperoni).

Verder zullen deze pagina’s met vergiftigde tekst links bevatten die doorlinken naar extra pagina’s met vergiftigde tekst, die geen enkele exit-link hebben. Dus net zoals een fysieke tarpit ervoor zorgt dat een dier in het echte leven vastloopt, houdt een AI-tarpit de LLM-crawler gevangen in een eindeloze assimilatie van onjuiste gegevens, waardoor hij niet in staat is de val te verlaten.

Hoe kan de gemiddelde gebruiker zijn gegevens beschermen tegen AI-bedrijven?

Contentmakers en IP-houders gebruiken tarpits om de waardevolle middelen van AI-bedrijven te verspillen en te voorkomen dat LLM’s de gegevens van een website zonder toestemming assimileren.

Maar zelfs als u geen maker van inhoud of IP-houder bent, moet u zich ervan bewust zijn dat AI-bedrijven uw gegevens ook gebruiken om hun modellen te trainen. Elke prompt die u in een AI-chatbot typt of elk gesprek dat u ermee voert, wordt opgenomen in het corpus van die LLM voor verdere analyse met als doel de LLM van de chatbot nog robuuster te maken.

Het goede nieuws is dat u geen toevlucht hoeft te nemen tot gespecialiseerde tools zoals tarpits om uw gegevens tegen chatbots te beschermen. In plaats daarvan kun je chatbots expliciet instructies geven niet om op uw gegevens te trainengebruik chatbots door volmachten om uw identiteit te verhullen, of om alledaagse softwaretools te gebruiken uw gevoelige gegevens redigeren voordat u documenten uploadt naar een chatbot voor analyse.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in