Een veelvoorkomende misvatting is dat als u geen grote taalmodellen (LLM’s) zoals ChatGPT gebruikt voor chats, Midjourney voor het genereren van afbeeldingen of Sora voor het genereren van video’s, u veilig bent voor kunstmatige intelligentie (AI). Of u het nu gebruikt of niet, AI beïnvloedt uw leven al.
Wanneer u bijvoorbeeld foto’s maakt op Android, scant en labelt Google Foto’s automatisch elke persoon in uw fotobibliotheek met behulp van gezichtsherkenning. Posten op sociale media zonder uw standaardinstellingen te wijzigen, creëert openbare berichten die kunnen worden gescrapet in de enorme datasets die worden gebruikt om LLM’s te trainen. Zelfs gepersonaliseerde advertenties op websites of in apps worden aangedreven door AI die getraind is op uw surf- en winkelvoorkeuren.
Dat gemak kost u uw privacy en kan een diepe impact op uw leven hebben. Twintig foto’s van de sociale feed van uw kind zijn genoeg om een deepfake-video van 30 seconden te maken die kan worden gebruikt voor chantage, pesten of identiteitsdiefstal.
Dit is wat er op het spel staat wanneer AI toegang heeft tot uw persoonlijke gegevens en wat u kunt doen om uw privacy online te beschermen.
- Hoe brengt AI uw privacy in gevaar?
- Uw persoonlijke gegevens kunnen worden verzameld
- U kunt opnieuw geïdentificeerd worden
- Uw gegevens kunnen worden gedeeld met derden
- Verzoeken om gegevensverwijdering werken mogelijk niet
- Andere mensen kunnen uw privéchats zien
- U kunt oneerlijk behandeld worden
- Advertentietargeting wordt scherper
- Cloudopslag kan uw gegevens blootstellen
- AI kan fouten maken
- Iedereen kan deepfakes maken
- Hoe u uw gegevens privé houdt voor AI-systemen
Hoe brengt AI uw privacy in gevaar?
AI kan privacy uithollen door te veel te verzamelen, te veel af te leiden en te veel te delen.
Uw persoonlijke gegevens kunnen worden verzameld
AI-systemen worden nauwkeuriger door te trainen op enorme hoeveelheden gegevens, vaak gescrapet van openbaar beschikbare bronnen, zoals uw Facebook-berichten(nieuw venster), Flickr-foto’s(nieuw venster) of Reddit-discussies(nieuw venster). Terloopse berichten op sociale media, familiefoto’s en profielgegevens — die vaak gevoelige informatie bevatten en oorspronkelijk gedeeld werden voor persoonlijke of sociale redenen — zijn opgenomen in datasets die gebruikt worden om LLM’s en gezichtsherkenningssystemen ter waarde van miljarden dollars te trainen. Dit gebeurt omdat Big Tech online content beschouwt als vrij beschikbaar voor AI-gebruik, zonder expliciete toestemming of inachtneming van intellectueel eigendom.
U kunt opnieuw geïdentificeerd worden
Techbedrijven beweren dat uw persoonlijke gegevens niet naar u kunnen worden herleid zodra ze zijn geanonimiseerd of gepseudoanonimiseerd, wat betekent dat voor de hand liggende identificatiegegevens zoals namen of telefoonnummers zijn verwijderd. Maar deze bescherming is kwetsbaar, omdat geanonimiseerde datasets opnieuw geïdentificeerd kunnen worden door ze te koppelen aan andere gegevensbronnen, zoals socialemediaprofielen of geolocatiesporen.
Bijvoorbeeld, Netflix-gebruikers zijn opnieuw geïdentificeerd(nieuw venster) door hun anonieme filmbeoordelingen te vergelijken met IMDb-informatie. Eén onderzoek(nieuw venster) toont aan dat bijna elke Amerikaan in elke dataset kan worden onderscheiden met slechts 15 demografische kenmerken. Door de patroonherkenningskracht van AI toe te voegen, is heridentificatie sneller, gemakkelijker en toegankelijk voor iedereen geworden.
Uw gegevens kunnen worden gedeeld met derden
Wanneer u AI-systemen gebruikt, blijven uw gegevens niet altijd bij het bedrijf waar u zich hebt aangemeld. Ze kunnen worden gedeeld met partners of externe verwerkers — van sommigen heeft u waarschijnlijk nog nooit gehoord — die uw gegevens onder hun eigen voorwaarden en beveiligingsnormen kunnen behandelen.
Op dat moment wordt privacy een kwestie van vertrouwen. U vertrouwt niet langer alleen op het bedrijf dat u kent om uw informatie te beschermen, maar op een hele keten van onbekende externe actoren, elk met hun eigen infrastructuur, beleid en kwetsbaarheden. Elke hand die uw gegevens aanraakt, vergroot het aanvalsoppervlak en de verantwoordelijkheid vervaagt.
Bijvoorbeeld, een lek waarbij een OpenAI-partner betrokken was leidde tot de blootstelling van API-gebruikersgegevens, wat aantoont hoe toegang door derden de zwakste schakel in het systeem kan worden.
Verzoeken om gegevensverwijdering werken mogelijk niet
Zodra uw gegevens een AI-model trainen, is het terugnemen ervan bijna onmogelijk omdat het het algehele gedrag van het model vormt. Machine unlearning — technieken om een model te laten vergeten — staat nog in de kinderschoenen, dus de enige optie vandaag zou zijn om het model opnieuw te trainen. En zelfs als een bedrijf beweert uw verzoek tot gegevensverwijdering te hebben gehonoreerd, is er praktisch geen manier om dit te bevestigen(nieuw venster).
Andere mensen kunnen uw privéchats zien
LLM’s zoals ChatGPT(nieuw venster), Meta AI(nieuw venster) en Grok(nieuw venster) hebben privégesprekken blootgesteld via hun deelfuncties, waarbij chats werden geïndexeerd door zoekmachines en openbaar vindbaar werden gemaakt. De platforms waren niet transparant genoeg over dit risico, waardoor gebruikers niet wisten dat wat voelde als een privé-uitwisseling zichtbaar kon worden voor iedereen op het internet.
U kunt oneerlijk behandeld worden
Als de gegevens die door AI-systemen worden gebruikt om patronen te leren verborgen vooroordelen bevatten — zoals historische ongelijkheden of onvolledige datasets — kan de AI die patronen versterken of vergroten. De inzet is hoger bij de niet-private AI-systemen van Big Tech, die closed-source zijn en werken als black boxes die niet onafhankelijk kunnen worden beoordeeld. Deze systemen kunnen gevoelige attributen zoals ras, geslacht of postcode gebruiken om geautomatiseerde beslissingen te nemen in voorspellend politiewerk(nieuw venster), werving(nieuw venster), gezondheidszorg(nieuw venster) of kredietbeoordeling(nieuw venster).
Advertentietargeting wordt scherper
Hoewel niet-private AI advertenties slimmer maakt door hyper-targeting mogelijk te maken, schendt het vaak de privacy van uw hele gezin. Publicis bijvoorbeeld, een datamakelaar en ‘s werelds grootste reclamebedrijf, claimt 2,3 miljard mensen te profileren en details zoals gezinsvoorkeuren en inkomen(nieuw venster) bij te houden om te beslissen of ze hen moeten targeten met budget- of premiumproducten.
Nu AI-chatbots traditioneel zoeken vervangen, volgen advertenties ons in deze nieuwe ruimte. Perplexity sluit bijvoorbeeld advertenties in AI-gegenereerde antwoorden in(nieuw venster) en heeft een bod van $34,5 miljard gedaan om Google Chrome te kopen — een zet gericht op het verkrijgen van toegang tot de 3+ miljard gebruikers van de browser en de intieme gedragsgegevens die daarbij horen.
Cloudopslag kan uw gegevens blootstellen
Cloudopslagproviders zonder end-to-end versleuteling (E2EE) hebben toegang tot de foto’s, documenten en gevoelige bestanden die u uploadt. Ze kunnen die gegevens ook gebruiken om AI-tools aan te drijven, inzichten over u te genereren of gepersonaliseerde advertenties te tonen.
Google Drive behoudt bijvoorbeeld toegang tot uw gegevens en gebruikt deze voor AI-functies zoals spellingcontrole en automatisch aanvullen in Google Docs. Als Gemini, de AI-assistent van Google, nauw geïntegreerd blijft met Google Workspace, kunnen vragen die u stelt over uw Drive-bestanden ook in AI-training terechtkomen.
Evenzo heeft Microsoft aangekondigd dat Word, Excel en PowerPoint binnenkort standaard automatisch opslaan in OneDrive, een andere niet-E2EE dienst waar het toekomstige gebruik van uw gegevens voor advertenties of AI-training onzeker blijft.
AI kan fouten maken
Geautomatiseerde systemen kunnen uw privécommunicatie scannen en markeren als verdacht. De voorgestelde Chat Control-wet van de EU zou berichtendiensten zoals WhatsApp en Signal verplichten AI te gebruiken om elk privébericht en elke foto te scannen om materiaal van seksueel misbruik van kinderen (CSAM) te detecteren.
Maar dit betekent het monitoren van ieders gesprekken, niet alleen die van verdachte criminelen. En de geschiedenis laat zien hoe gemakkelijk AI fouten kan maken. Het Google-account van een vader werd bijvoorbeeld beëindigd(nieuw venster) en gerapporteerd aan de autoriteiten na het verzenden van een foto van zijn kind naar een arts. Wat tussen u en uw arts, of u en uw gezin zou moeten blijven, kan plotseling worden blootgesteld aan techbedrijven en wetshandhaving.
Iedereen kan deepfakes maken
AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.
Kwaadwillenden misbruiken deepfakes voor identiteitsdiefstal, fraude, chantage of reputatieschade — en de risico’s gelden ook voor kinderen. In 2019 gebruikten criminelen deepfake-audio om de stem van een CEO na te bootsen(nieuw venster) en misleidden ze een werknemer om € 220.000 over te maken. De risico’s gelden ook voor kinderen. Bij één incident creëerde een roofdier een deepfake-afbeelding van een 14-jarige(nieuw venster) om geld af te persen door te dreigen deze te delen.
Hoe u uw gegevens privé houdt voor AI-systemen
Er zijn veel privacyzorgen bij AI-systemen, met name de niet-private, closed-source modellen die worden beheerd door Big Tech. En hoewel u niet volledig kunt voorkomen dat deze systemen uw gegevens scrapen of misbruiken zodra ze daar zijn, kunt u uw voetafdruk verkleinen, verantwoording eisen en kiezen voor privacy-eerst AI die uw gegevens niet exploiteert. Dit is wat u kunt doen:
- Maak op sociale media uw profielen en berichten privé, verwijder oude uploads, verwijder EXIF-gegevens van foto’s voordat u ze deelt, en vermijd het delen van identificeerbare details — zoals adressen, volledige namen van kinderen of de scholen die ze bezoeken. Lees meer over hoe u het internet voor uw gezin beheert.
- Controleer de privacyinstellingen van uw apps. Meta AI kan bijvoorbeeld foto’s van uw filmrol scannen en video’s op de Facebook-app voor Android en iOS.
- Bescherm tegen deepfakes door de gezichten van uw gezin te vervagen of onherkenbaar te maken voordat u foto’s online plaatst.
- Maskeer uw digitale voetafdruk door een virtueel privénetwerk (VPN)(nieuw venster) te gebruiken om uw IP-adres te verbergen, en gebruik aliassen om uw e-mailadres te beschermen wanneer u gevoelige informatie plaatst waarvan u niet wilt dat deze naar u wordt herleid.
- Gebruik privacy-eerst diensten die uw gegevens niet te gelde maken, zoals Signal voor veilige berichtenuitwisseling en Brave of DuckDuckGo voor privé browsen.
- Voor het veilig opslaan van uw meest gevoelige bestanden, inclusief privéfoto’s en vertrouwelijke documenten, gebruikt u Proton Drive voor end-to-end versleutelde cloudopslag. In tegenstelling tot platforms die zogenaamd privéinhoud kunnen blootstellen, scant, indexeert of gebruikt Drive uw gegevens niet voor AI-training — en kan het door niemand anders worden gezien, zelfs niet wanneer u ervoor kiest om het te delen. Uw foto’s echt privé houden betekent ook dat ze niet online belanden waar ze misbruikt kunnen worden om deepfakes te maken.
- Meld u waar mogelijk af voor AI-training, zoals op Gemini, ChatGPT(nieuw venster), Claude(nieuw venster) of Meta AI. Beleid kan van de ene op de andere dag veranderen met weinig waarschuwing, dus als u de voordelen van zowel AI als privacy wilt, stap dan over op Lumo — onze privacy-eerst AI-assistent(nieuw venster) die geen logs bijhoudt of traint op uw gegevens.
Strengere regelgeving op het gebied van AI-privacy, zoals de AI Act van de EU(nieuw venster), zal cruciaal zijn om de macht terug te geven aan internetgebruikers. Tot die tijd is de beste verdediging bewust te zijn van wat u online deelt, verantwoording te eisen van de bedrijven die deze systemen bouwen, en te kiezen voor transparante AI-tools(nieuw venster) die privacy vanaf de basis respecteren.




