Naarmate het gebruik van kunstmatige intelligentie toeneemt, worden AI-assistenten(nieuw venster) **vertrouwde** metgezellen. Miljoenen mensen wenden zich tot chatbots zoals ChatGPT, Claude, Gemini, DeepSeek en anderen om vragen te stellen en problemen op te lossen. Hun zoekopdrachten kunnen zeer gevoelig zijn, vragen over gezondheidsproblemen, het **delen** van klantgegevens of het zoeken naar emotionele **ondersteuning** en creatieve inspiratie.
Voor velen voelen deze chatbots menselijk, responsief en vertrouwelijk. Maar recente ontwikkelingen (Een gerechtelijk bevel heeft OpenAI gedwongen om ChatGPT-uitvoergegevens voor onbepaalde tijd te bewaren(nieuw venster), en Sam Altman, de oprichter van OpenAI, zegt dat ChatGPT geen “wettelijke vertrouwelijkheid” biedt(nieuw venster)) werpen een licht op het risico dat elk woord dat u typt kan worden **gelogd**, **opgeslagen**, geanalyseerd en mogelijk misbruikt of **gelekt** naar derden.
Hier is wat dat zou kunnen betekenen, en waarom het ons allemaal zorgen zou moeten baren.
De inzet is hoger met AI
De opkomst van AI-assistenten voelt als een nieuwe grens, maar in veel opzichten zijn we hier eerder geweest. De zorgen rond AI-chat**logboeken** weerspiegelen die welke in de begindagen van zoekmachines naar voren kwamen, waarvan vele gegrond bleken te zijn. Zoek**logboeken** zijn gebruikt om lucratieve advertentietargeting-profielen op te bouwen, zijn blootgesteld in data**schendingen** en zijn opgevraagd in de rechtbank.
Met AI is de inzet hoger omdat de data persoonlijker en gedetailleerder is. Steeds meer mensen wenden zich van zoekmachines tot AI-chatbots voor hun antwoorden, met voorspellingen dat het gebruik van zoekmachines tegen 2026 met 25% zal dalen(nieuw venster). In tegenstelling tot een zoekbalk, die doorgaans korte, gefragmenteerde **zoekopdrachten** vastlegt, worden vragen aan chatbots geformuleerd alsof de vragers met een andere persoon praten, waardoor ze in het proces veel meer over zichzelf onthullen. Een enkel **gesprek** kan persoonlijke gedachten(nieuw venster), emotionele worstelingen, gezondheidsproblemen(nieuw venster), financiële angsten of zelfs volledige namen en **adressen** bevatten.
Kortom, chat**logboeken** bieden een ongelooflijk rijke en intieme kaart van uw **identiteit**, meer dan zoekmachine**logboeken** — en met veel grotere implicaties voor uw **privacy**. Big Tech zou **toegang** kunnen krijgen tot uw chat**logboeken** en deze kunnen gebruiken om een psychologisch profiel van u op te bouwen dat aan de overheid kan worden onthuld of kan worden gebruikt voor gerichte reclame. Bijvoorbeeld, Meta gebruikt AI-chatgegevens om gepersonaliseerde advertenties te maken.
Uw ‘anonieme’ chats blijven niet altijd zo
Een veelgehoord argument tegen zorgen over **privacy** van chat**logboeken** is dat de enorme hoeveelheid data individuele exploitatie onwaarschijnlijk maakt, vooral wanneer **gebruikers** niet zijn **aangemeld**. Maar de recente geschiedenis vertelt een ander verhaal.
In juli ontdekten verslaggevers dat meer dan 100.000 **gesprekken** in ChatGPT(nieuw venster) werden geïndexeerd door Google en doorzoekbaar werden gemaakt. **Gebruikers** die op de knop “**delen**” klikten om een **gesprek** naar vrienden of collega’s te **verzenden**, beseften vrijwel zeker niet dat hun **privé****gesprekken** zichtbaar zouden zijn voor iedereen op het internet.
Dit voorbeeld is een **waarschuwing**: Zogenaamde “anonieme” data is zelden anoniem. In combinatie met **IP-adressen**, tijdstempels, **apparaat****vingerafdrukken** en **sessie**- en **cookie**-ID’s worden deze **logboeken** veel beter identificeerbaar.
Hoe chats ons innerlijke leven kunnen blootleggen
De populaire AI-platformen ChatGPT(nieuw venster), Gemini(nieuw venster) en DeepSeek(nieuw venster) geven allemaal aan dat chatlogboeken van gebruikers worden gebruikt om de modelprestaties te verbeteren en niet worden gebruikt om uw gegevens te “verkopen” voor advertenties of gebruikersprofilering. Maar beleid kan van de ene op de andere dag veranderen, zoals de juridische strijd van OpenAI aantoont.
Anthropic heeft bijvoorbeeld in augustus 2025 zonder waarschuwing zijn privacybeleid geüpdatet(nieuw venster) om de bewaartermijn van gegevens te verlengen. Nu logboeken voor onbepaalde tijd worden opgeslagen, kunnen persoonlijke gegevens die ooit verboden terrein leken, plotseling een lucratieve bron van winst worden.
Het zou niet de eerste keer zijn dat dit gebeurt. Toen Google in 1998 werd gelanceerd, waarschuwden(nieuw venster) medeoprichters Sergey Brin en Larry Page dat zoekmachines op basis van advertenties onvermijdelijk “inherent bevooroordeeld zouden zijn ten gunste van de adverteerders en ten nadele van de behoeften van de consumenten”. Tien jaar later begon Google zoekgeschiedenissen te gebruiken om advertenties op u te richten(nieuw venster).
Met directe toegang tot het innerlijke leven van mensen kunnen AI-logboeken advertentietargeting tot het uiterste drijven. Nu steeds meer gebruikers chatbots gebruiken voor emotionele ondersteuning(nieuw venster), kan iemand in vertrouwen zeggen:
- “Ik voel me de laatste tijd overweldigd en alleen.”
- “Denk je dat ik een depressie heb?”
- “Wat kan ik doen als ik volgende maand de huur niet kan betalen?”
Deze verklaringen zijn niet zomaar trefwoorden of een verzameling interacties, het zijn duidelijke emotionele en situationele indicatoren. Indien opgeslagen en geanalyseerd, kunnen ze worden gebruikt om psychologische profielen op te bouwen en beslissingen van gebruikers te manipuleren.
Het is niet alarmistisch om te suggereren dat dergelijke intieme, gevoelige informatie kan worden gebruikt voor uitbuitingsdoeleinden — omdat de Big Tech-bedrijven precies dat hebben gedaan. In 2017 toonde Facebook aan dat geen enkele interactie verboden terrein is door manieren te onderzoeken om emotioneel kwetsbare tieners te targeten(nieuw venster) met advertenties tijdens momenten van onzekerheid.
Chatbot-logboeken zijn een venster op uw psyche. En dat toegangsniveau roept aanzienlijke zorgen op over privacy en ethiek in een sector die nog geen duidelijke richtlijnen en regelgeving heeft voor gegevensgebruik en toepassing.
De juridische risico’s voor gebruikers
Zoekgeschiedenis speelt al lang een rol in strafrechtelijke onderzoeken en rechtszaken. Er zijn meerdere gevallen waarin online zoekopdrachten hebben bijgedragen aan veroordelingen, met name Moira Akers vs State in de VS.
Na een doodgeboorte in 2018 werd Akers aangeklaagd voor moord en in 2022 veroordeeld tot 30 jaar gevangenisstraf. Een belangrijk onderdeel van de zaak van de aanklager waren de internetzoekopdrachten van Akers over abortus, uitgevoerd tijdens de vroege stadia van haar zwangerschap. Volgens de vervolging dienden deze zoekopdrachten als bewijs van Akers’ intentie — ondanks het feit dat ze de zwangerschap voldragen had. Het Hooggerechtshof van Maryland vernietigde haar veroordeling in 2025 en verklaarde het bewijs van de zoekopdracht niet-ontvankelijk(nieuw venster). Maar Akers had al bijna drie jaar in de gevangenis doorgebracht. De zaak benadrukt hoe opgeslagen logboeken kunnen worden gebruikt om een verhaal te vertellen dat past bij een ongunstig narratief, zelfs als er bewijs is dat dit tegenspreekt.
De inzet kan nog hoger zijn bij opgeslagen AI-chats die onderhevig kunnen zijn aan wettelijk bewijs. In tegenstelling tot zoekopdrachten zijn deze interacties meer conversationeel en zelfs speculatief, soms als een manier om een bepaald type reactie van het LLM, of grote taalmodel, uit te lokken. Een privé, onschuldige uitwisseling met een AI kan later in een juridische setting worden geïnterpreteerd als belastend, ongeacht de intentie op dat moment.
Een krachtig hulpmiddel voor manipulatie
Degenen die chatbot-logboeken kunnen zien, kunnen toegang krijgen tot gedetailleerde gedragsblauwdrukken: persoonlijke gewoonten, emotionele triggers, relatiedynamiek en zelfs professionele kwetsbaarheden. In de verkeerde handen zijn deze gegevens een krachtig hulpmiddel voor social engineering, een veelgebruikte hackingtactiek waarbij psychologische manipulatie betrokken is.
Dit risico is verre van hypothetisch. In januari 2025 liet het AI-platform DeepSeek een enorme database onbeveiligd online staan(nieuw venster). Het lek omvatte meer dan een miljoen AI-chatlogboeken en API-sleutels, allemaal openbaar toegankelijk voor iedereen die wist waar te zoeken. Onder de blootgestelde gegevens bevonden zich gesprekken in platte tekst die mogelijk discussies bevatten over familie, financiën en vertrouwelijke projecten — informatie die gemakkelijk kan worden misbruikt voor fraude, chantage of identiteitsdiefstal.
Eenmaal gelekt, kunnen deze gegevens als wapen worden gebruikt om u te imiteren of u te manipuleren. Door te verwijzen naar persoonlijke gegevens uit eerdere gesprekken, kunnen aanvallers uw vertrouwen winnen en dit misbruiken om ernstige financiële of beveiligingskwetsbaarheden te creëren.
Het schrikbeeld van politiek toezicht
In autoritaire regimes kunnen de gevolgen van opgeslagen digitale interacties veel ernstiger zijn. Zo hebben verschillende landen het in China gevestigde AI-platform DeepSeek verboden voor gebruik op overheidsapparaten(nieuw venster) vanwege veiligheidszorgen over hoe persoonlijke informatie van gebruikers wordt verwerkt door de exploitant. Zuid-Korea, Australië en Taiwan uitten hun bezorgdheid dat deze gegevens toegankelijk zouden kunnen zijn voor Chinese autoriteiten en mogelijk gebruikt zouden kunnen worden voor surveillance.
Voor dissidenten, activisten of journalisten is dit niet zomaar een privacyprobleem, het is een kwestie van veiligheid. Een ogenschijnlijk informele chat over protestrechten, mediawetten of asielroutes kan worden geïnterpreteerd als belastend bewijs in rechtsgebieden met beperkte bescherming voor vrijheid van meningsuiting en burgerlijke vrijheden.
Een bedreiging voor intellectueel eigendom
In 2023 hebben ingenieurs van Samsung onbedoeld eigen broncode geüpload(nieuw venster) naar ChatGPT terwijl ze probeerden een probleem te debuggen, in de onterechte veronderstelling dat hun zoekopdrachten privé waren. Eenmaal ingediend, werden die gegevens onderdeel van het trainingssysteem van OpenAI, wat leidde tot bezorgdheid over de beveiliging en het eigendom van intellectueel eigendom dat met AI-tools wordt gedeeld.
Een gerelateerde zorg kwam naar voren in de spraakmakende auteursrechtzaak aangespannen door The New York Times tegen OpenAI(nieuw venster) die aan het begin van dit artikel werd genoemd. De zaak leidde tot een gerechtelijk bevel dat OpenAI verplichtte om alle ChatGPT-uitvoergegevens voor onbepaalde tijd te bewaren na beschuldigingen dat het bedrijf miljoenen artikelen van de krant had gebruikt om zijn modellen zonder toestemming te trainen. Hoewel de zaak draait om de webcrawlers van OpenAI die nieuwsinhoud scrapen, roept het bredere vragen op voor creatievelingen — schrijvers, ontwerpers, muzikanten en anderen — die origineel werk bijdragen aan AI-platformen.
Als door gebruikers ingediende inhoud wordt bewaard en hergebruikt door het model, bestaat er een reëel risico dat eigen of creatief materiaal opnieuw wordt verspreid onder andere gebruikers zonder naamsvermelding of toestemming. Dit vervaagt de grens tussen gebruikersbijdrage en AI-trainingsgegevens, en roept dringende vragen op over auteurschap en eigendom in het tijdperk van generatieve AI.
Wat er moet veranderen en hoe u uzelf kunt beschermen
De meeste mensen willen en verwachten privacy in hun echte leven. Wij geloven dat diezelfde verwachtingen ook voor het digitale leven van mensen moeten gelden. We hebben een reeks versleutelde diensten gebouwd die online privacy voor iedereen toegankelijk maken, of u nu uw vrienden e-mailt, uw favoriete programma’s streamt(nieuw venster) of back-ups maakt van foto’s. Het is niet te laat om de vroege fouten van het internet te corrigeren, en met AI in de beginfase is er nog tijd om een nieuwe koers uit te stippelen voor deze technologie die uw privacy respecteert.
We hebben onze AI-assistent(nieuw venster) Lumo zo gebouwd dat belangrijke beschermingen inherent zijn aan het ontwerp:
- Geen datalogging: Gebruikers moeten met chatbots kunnen communiceren zonder zich zorgen te hoeven maken dat hun inzendingen worden opgeslagen, gebruikt voor winst of tegen hen worden gebruikt.
- Geen modeltraining: Privéchats mogen nooit als trainingsgegevens worden misbruikt, omdat het risico bestaat dat ze later weer in de uitvoer van het model verschijnen.
- Transparantie in gegevensverwerking: Het moet duidelijk zijn hoe opgeslagen gebruikersgegevens worden gebruikt, wie er toegang toe kan krijgen, waar deze worden opgeslagen, hoe lang ze worden bewaard en hoe ze kunnen worden verwijderd.
- Zero-access versleuteling als standaard: Gesprekken moeten worden beveiligd met behulp van de encryptiesleutels van de gebruiker, zodat zelfs de AI-provider geen toegang kan krijgen.
Hoewel de gevaren van chatbots die stilletjes onze gegevens loggen reëel en dringend zijn, zijn we niet machteloos. Door te kiezen voor privacygerichte AI-tools en transparantie en verantwoording van hun makers te eisen, kunnen we de machtsbalans terugleggen in de handen van gebruikers, waarmee we de overtuiging bevestigen dat privacy een recht is, geen privilege.




