Dit zoals verteld-essay is gebaseerd op een gesprek met de 31-jarige Harsh Varshney, die bij Google werkt en in New York woont. Het volgende is aangepast voor lengte en duidelijkheid.
AI is snel een stille partner in ons dagelijks leven geworden, en ik kan me geen leven zonder voorstellen AI-hulpmiddelen.
Dagelijks helpen ze me met diepgaand onderzoek, het maken van aantekeningen, coderen en online zoeken.
Maar door mijn werk ben ik me zeer bewust van de privacyproblemen die gepaard gaan met het gebruik van AI. Ik werk sinds 2023 bij Google en heb twee jaar als software-ingenieur in het privacyteam gewerkt aan het bouwen van infrastructuur om gebruikersgegevens te beschermen. Vervolgens ben ik overgestapt naar het Chrome AI-beveiligingsteam, waar ik Google Chrome help beveiligen tegen kwaadaardige bedreigingen, zoals hackers en degenen die AI-agenten om phishing-campagnes uit te voeren.
AI-modellen gebruiken gegevens om nuttige reacties te genereren, en wij gebruikers moeten onze privégegevens beschermen, zodat schadelijke entiteiten, zoals cybercriminelen en datamakelaars, er geen toegang toe hebben.
Hier zijn vier gewoonten die ik heb gemaakt en die volgens mij essentieel zijn voor het beschermen van mijn gegevens tijdens het gebruik van AI.
Behandel AI als een openbare ansichtkaart
Soms kan een vals gevoel van intimiteit met AI ertoe leiden dat mensen online informatie delen die ze anders nooit zouden delen. AI-bedrijven kan hebben werknemers die werken aan het verbeteren van de privacyaspecten van hun modellen, maar het is niet raadzaam om creditcardgegevens, burgerservicenummers, uw thuisadres, persoonlijke medische geschiedenis of andere persoonlijk identificeerbare informatie te delen met AI-chatbots.
Afhankelijk van de gebruikte versie, de informatie die met het publiek wordt gedeeld AI-chatbots kunnen worden gebruikt om toekomstige modellen te trainen en reacties te genereren die relevanter zijn. Dit zou kunnen resulteren in “training lekkage”, waarbij het model persoonlijke informatie over één gebruiker onthoudt en braakt het later uit in reacties op een ander. Bovendien bestaat het risico op datalekken, waardoor zichtbaar wordt wat u met een chatbot hebt gedeeld.
Ik behandel AI-chatbots als een openbare ansichtkaart. Als ik geen stukje informatie op een ansichtkaart zou schrijven die voor iedereen zichtbaar zou zijn, zou ik het niet delen met een openbare AI-tool. Ik heb er geen vertrouwen in hoe mijn gegevens kunnen worden gebruikt voor toekomstige trainingen.
Weet in welke ‘kamer’ je je bevindt
Het is belangrijk om vast te stellen of u een meer openbare AI-tool of een enterprise-grade tool gebruikt.
Hoewel het onzeker is hoe gesprekken worden gebruikt voor het trainen van openbare AI-modellen, kunnen bedrijven dat wel doen betalen voor ‘ondernemingsmodellen’. Hier zijn modellen doorgaans niet bedoeld om gebruikersgesprekken te trainen, dus het is veiliger voor werknemers om over hun werk en bedrijfsprojecten te praten.
Zie het als een gesprek voeren in een druk café waar je kunt worden afgeluisterd, versus een vertrouwelijke vergadering op kantoor die in de kamer blijft.
Er zijn naar verluidt gevallen geweest waarin werknemers per ongeluk een fout hebben gemaakt gelekte bedrijfsgegevens naar ChatGPT. Als u aan nog niet eerder uitgebrachte bedrijfsprojecten werkt of een patent probeert te verkrijgen, wilt u uw plannen waarschijnlijk niet bespreken met een niet-zakelijke chatbot vanwege het risico op lekkage.
Ik bespreek projecten waaraan ik bij Google werk niet met openbare chatbots. In plaats daarvan gebruik ik een ondernemingsmodel, zelfs voor taken die zo klein zijn als het bewerken van een zakelijke e-mail. Ik vind het veel prettiger om mijn informatie te delen omdat mijn gesprekken niet voor training worden gebruikt, maar ik minimaliseer nog steeds de persoonlijke informatie die ik deel.
Wis regelmatig uw geschiedenis
AI-chatbots houden meestal een geschiedenis van uw gesprekken bij, maar ik raad aan deze regelmatig te verwijderen op zowel zakelijke als openbare modellen om uw gebruikersprivacy op de lange termijn te beschermen. Omdat het risico bestaat dat uw account wordt gecompromitteerd, is het een goede voorzorgsmaatregel, zelfs als u zeker weet dat u geen privégegevens in de tools stopt.
Ooit was ik verrast dat een onderneming Gemini-chatbot kon mij mijn exacte adres vertellen, ook al kon ik me niet herinneren dat ik het had gedeeld. Het bleek dat ik hem eerder had gevraagd om mij te helpen een e-mail te verfijnen, waarin mijn adres stond. Omdat de tool over langetermijngeheugenfuncties beschikt, waardoor informatie uit eerdere gesprekken kan worden onthouden, kan de tool identificeren wat mijn adres was en deze vasthouden.
Soms, als ik zoek naar dingen waarvan ik niet wil dat de chatbot het onthoudt, gebruik ik een speciale modus, een beetje zoals de incognitomodus, waarbij de bots mijn geschiedenis niet opslaan en de informatie niet gebruiken om modellen te trainen. ChatGPT en Gemini noem dit de “tijdelijke chat” -functie.
Gebruik bekende AI-tools
Het is beter om AI-tools te gebruiken die bekend zijn en die waarschijnlijk over duidelijke privacykaders en andere vangrails beschikken.
Naast de producten van Google gebruik ik graag OpenAI’s ChatGPT en Antropische Claude.
Het is ook nuttig om het privacybeleid van alle tools die u gebruikt te bekijken. Soms leggen ze meer uit over hoe uw gegevens worden gebruikt om het model te trainen. In de privacy-instellingen kun je ook zoeken naar een sectie met de optie ‘het model voor iedereen verbeteren’. Door ervoor te zorgen dat deze instelling is uitgeschakeld, voorkom je dat je gesprekken worden gebruikt voor training.
AI-technologie is ongelooflijk krachtig, maar we moeten voorzichtig zijn om ervoor te zorgen dat onze gegevens en identiteiten veilig zijn wanneer we deze gebruiken.
Heeft u een verhaal te vertellen over het gebruik van AI om u te helpen op het werk? Neem contact op met deze verslaggever via ccheong@businessinsider.com

