Home Nieuws Laat ChatGPT en andere AI-chatbots niet langer trainen op uw gegevens. Hier...

Laat ChatGPT en andere AI-chatbots niet langer trainen op uw gegevens. Hier is waarom – en hoe

4
0
Laat ChatGPT en andere AI-chatbots niet langer trainen op uw gegevens. Hier is waarom – en hoe

Wanneer u met een chatbot communiceert, is de kans groot dat alles wat u zegt en elke prompt die u geeft, niet alleen wordt gebruikt om antwoorden op uw vragen te genereren. Bijna elk chatbotbedrijf ter wereld gebruikt de informatie die u verstrekt ook om zijn medewerkers te trainen AI modellen. Hierdoor kan uw privacy (en zelfs de vertrouwelijke informatie van uw werkgever) in het gedrang komen. Maar u kunt deze privacyrisico’s beperken door chatbots te vertellen uw gegevens niet voor training te gebruiken. Hier is hoe.

Wat is AI-chatbottraining?

Om ervoor te zorgen dat een chatbot goed geïnformeerde en (hopelijk) nauwkeurige antwoorden kan geven, moet het onderliggende grote taalmodel (LLM) dat de chatbot aanstuurt een enorme hoeveelheid informatie assimileren, die hij vervolgens gebruikt om je vragen te helpen beantwoorden. Dit proces van informatie-assimilatie staat bekend als ‘training’.

Hoe meer informatie een LLM gebruikt, hoe intelligenter de LLM ogenschijnlijk wordt. LLM’s verwerven trainingsgegevens uit talloze bronnen, waaronder openbare websites, sociale-mediaplatforms, encyclopedieën, sites voor het delen van video’s zoals YouTube, en helaas soms ook zelfs zonder toestemming van auteurs, romanschrijvers, kunstenaars, muzikanten en andere creatieven.

Maar LLM’s krijgen hun trainingsgegevens ook van u. Elke keer dat u een prompt invoert om een ​​chatbotinformatie te geven, wordt die informatie waarschijnlijk door het AI-bedrijf gebruikt om zijn modellen verder te trainen. En dat kan uw privacy ernstig in gevaar brengen.

Waarom u AI-chatbots niet op uw gegevens moet laten trainen

Het is over het algemeen een goed idee om LLM’s niet te laten trainen op uw gegevens, vooral als u tijdens uw interacties met een chatbot veel gevoelige informatie over uzelf deelt. Als u met een chatbot praat over uw fysieke of mentale gezondheid, uw financiën of uw relaties, moet u weten dat die gegevens standaard meestal door het AI-bedrijf worden gebruikt om zijn LLM verder te trainen, wat betekent dat uw meest intieme gedachten, zorgen en zorgen onderdeel worden van het model.

AI-bedrijven zeggen dat ze de informatie die u verstrekt, anonimiseren voordat ze deze gebruiken om hun modellen te trainen, maar eigenlijk moet u ze gewoon op hun woord geloven. Zelfs als ze uw informatie anonimiseren, betekent dat niet dat een slechte acteur in de toekomst geen enkele techniek zou kunnen gebruiken om alle aanwijzingen over een bepaalde gezondheids-, relatie-, juridische of financiële kwestie aan u terug te koppelen.

En als u een AI-chatbot voor uw werk gebruikt, kunt u uw werkgever blootstellen aan wettelijke en regelgevende risico’s als de gegevens die u eraan toevoegt vertrouwelijke gebruikers- of klantinformatie bevatten. Zelfs als dat niet het geval is, kunt u onbedoeld de bedrijfsgeheimen van uw werkgever prijsgeven, zoals bedrijfseigen code of verkoopgegevens. De chatbot geeft u misschien de antwoorden waarnaar u op zoek bent, maar hij gebruikt ook alle gegevens die u hem geeft om zijn modellen verder te trainen – en die gegevens als onderdeel van zichzelf te bewaren.

Hoe u kunt voorkomen dat AI-chatbots trainen op uw gegevens

Dit alles betekent dat het een heel goed idee is om een ​​chatbot te verbieden om met uw gegevens te trainen. Als u dit doet, wordt de kwaliteit van de resultaten die de chatbot u levert niet belemmerd, maar wordt er wel zo goed mogelijk voor gezorgd dat de gegevens die u eraan verstrekt, niet permanent worden opgenomen in de onderliggende LLM van de bot.

Het goede nieuws is dat de meest gerenommeerde chatbots, waaronder de vier meest populaire: ChatGPT van OpenAI, Gemini van Google, Claude van Anthropic en Perplexity van Perplexity AI, nu manieren bieden waarop u zich kunt afmelden voor het gebruik van uw gegevens voor training. Zo kunt u de vier grote chatbots vertellen dat ze moeten stoppen met trainen op uw gegevens:

  • ChatGPT: Selecteer uw profiel om toegang te krijgen tot de instellingen van de chatbot. Selecteer Gegevensbesturingselementen. Selecteer ‘Verbeter het model voor iedereen’. Schakel de schakelaar ‘Verbeter het model voor iedereen’ uit.
  • Tweeling: Ga naar de Pagina Gemini Apps Activiteitsinstellingen. Selecteer de knop met de tekst ‘Aan’. Selecteer ‘Uitschakelen’ in het pop-upvenster. Selecteer ‘Begrepen’ in het bevestigingsvenster dat verschijnt.
  • Claude: Selecteer uw profiel om toegang te krijgen tot de instellingen van de chatbot. Selecteer het privacymenu. Zet de schakelaar ‘Help Claude te verbeteren’ uit.
  • Verbijstering: Selecteer uw profiel om toegang te krijgen tot de instellingen van de chatbot. Selecteer het menu Voorkeuren. Schakel de schakelaar ‘AI-gegevensretentie’ uit.

Als je dit eenmaal hebt gedaan, zou geen van de vier grote AI-giganten de aanwijzingen en andere informatie die je hun chatbots geeft, kunnen gebruiken om hun LLM’s verder te trainen. Omdat deze bedrijven echter geen onafhankelijke auditors toegang hebben gegeven tot hun systemen, moet je de bedrijven op hun woord geloven dat ze zullen stoppen met het gebruiken van jouw gegevens om hun modellen te trainen.

Houd er ook rekening mee dat zelfs als AI-bedrijven ermee instemmen uw gegevens niet te gebruiken om hun modellen te trainen, zij informatie uit uw chats en andere informatie die u verstrekt voor wettelijke of regelgevende doeleinden gedurende een bepaalde periode kunnen bewaren.

En zelfs nu deze anti-trainingsbevelen van kracht zijn, is het nog steeds een goed idee om grondig (en correct) gevoelige informatie uit alle documenten redigeren voordat je ze uploadt naar een AI-chatbot. Om nog meer privacy te krijgen bij de interactie met populaire chatbots, kunt u overwegen om proxy’s zoals Apple-intelligentie op de iPhone of DuckDuckGo’s Duck.aiwat kan helpen uw digitale voetafdruk beter te verbergen voor AI-giganten.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in