Big Tech-bedrijven hebben biljoenenimperiums opgebouwd door ons persoonlijke leven tot handelswaar te maken. Kunstmatige intelligentie geeft hun bedrijfsmodel van surveillancekapitalisme een enorme boost door te integreren in de tools die we elke dag gebruiken — vaak zonder ons duidelijke uitleg of de mogelijkheid om ons af te melden te geven.
Krachtige grote taalmodellen (LLM’s) verzamelen nog gedetailleerdere gegevens en leiden meer over u af dan voorheen denkbaar was. AI wordt geïntegreerd in een breed scala aan platforms(nieuw venster), van zoeken tot foto-opslag en zelfs het besturingssysteem van uw apparaat, waardoor het moeilijker wordt om deze gegevensverzameling bij te houden, laat staan er toestemming voor te geven. Dit stelt bedrijven als Google, Meta en Microsoft op hun beurt in staat om uitgebreidere persoonlijke profielen op te stellen, meer te profiteren van de gegevens en meer controle uit te oefenen over de informatie en verhalen die u ziet.
Deze bedrijven kunnen uw privégegevens delen of verkopen aan datamakelaars en andere derden. Overheden kunnen toegang krijgen tot deze gegevens via dagvaardingen(nieuw venster) of nog heimelijkere vormen van surveillance. En persoonlijke gegevens kunnen worden blootgesteld bij een datalek, zoals keer(nieuw venster) op keer(nieuw venster) is gebeurd met diensten zoals ChatGPT.
Het resultaat is snelle en grootschalige gegevensverzameling, met nog minder controles op bedrijven om toestemming te verkrijgen of de gevolgen van de technologie te overwegen. Wetten inzake gegevensbescherming rondom AI lopen berucht ver achter op de industrie(nieuw venster).
We hebben dringend een privéalternatief nodig, daarom hebben we een nieuwe vertrouwelijke AI-assistent gebouwd, Lumo(nieuw venster), die geen enkel record van uw gesprekken bijhoudt. Uw opgeslagen chats zijn alleen voor u beschikbaar, beschermd door zero-access versleuteling. Als het om uw gegevens gaat, heeft u een keuze — maar meer mensen moeten de risico’s van de status quo begrijpen.
AI maakt Big Tech nog machtiger
AI stelt Google en Meta in staat hun bestaande monopolies op te schalen en te verankeren, vooral op het gebied van advertenties en exploitatie van persoonlijke gegevens, maar op een veel snellere en grotere schaal.
Meta integreert bijvoorbeeld AI diepgaand om zijn advertentiebedrijf nieuw leven in te blazen, door uw berichten te scannen en zelfs Meta AI toe te voegen(nieuw venster) aan zijn end-to-end versleutelde chatproducten zoals WhatsApp in een duidelijke poging om meer persoonlijke gegevens van het platform over te hevelen. Google is AI-first gegaan met zijn advertentiebedrijf(nieuw venster), dus elke advertentie is geoptimaliseerd om u persoonlijk te manipuleren. En de Gemini van Google is nu diep geïntegreerd in zijn hele ecosysteem, waardoor zijn AI een vrijbrief krijgt om gegevens van Android-telefoons en Google-apps te verzamelen.
AI is vergelijkbaar met zoeken, maar veel intiemer en dieper geworteld in uw leven. Terwijl het volgen van zoekopdrachten eenvoudige zoekopdrachten en klikken gebruikt om uw interesses te voorspellen, gebruikt AI natuurlijke taalverwerking en zelfs beeldherkenning om de merken, berichten, emoties en beelden te voorspellen die het diepst bij u zullen resoneren. Sommige mensen raken zelfs emotioneel geïnvesteerd(nieuw venster) in AI-chatbots vanwege hoe nauwkeurig ze menselijke verbinding kunnen imiteren — iets dat nooit is gebeurd met zoekmachines.
Eén reclamebureau beweert(nieuw venster) dat door AI aangedreven advertenties een “seismische verschuiving” zijn die klanten de macht geeft om “sentiment en voorkeuren te peilen” en zelfs “visuele gegevens te verwerken, zoals afbeeldingen en video’s, om merklogo’s en productgebruik te identificeren, waardoor contextspecifieke advertentietargeting mogelijk wordt.” Stel u voor dat schoonheidsproducten zich op uw kind zouden kunnen richten op het moment dat het zijn angsten aan een vriend uit, of dat politici AI-geoptimaliseerde advertenties zouden kunnen implementeren om in te spelen op de privéangsten van kiezers.
Big Tech is al machtiger dan overheden — stel u voor wat ze zouden kunnen bereiken met ongebreidelde AI.
Uw chats lekken
Uw privacy staat op het spel, maar ook uw veiligheid. AI creëert een enorme, gecentraliseerde pool van intieme informatie die steeds kwetsbaarder wordt voor blootstelling op verschillende manieren.
Dit is al gebeurd:
- In juli 2025 vonden verslaggevers meer dan 100.000 gesprekken in ChatGPT(nieuw venster) die door Google waren geïndexeerd en doorzoekbaar waren gemaakt. Gebruikers die op de knop “delen” klikten om een gesprek naar vrienden of collega’s te sturen, realiseerden zich vrijwel zeker niet dat hun privégesprekken zichtbaar zouden zijn voor iedereen op internet.
- In 2024 gebruikten onderzoekers een promptinjectie in Slack AI(nieuw venster) om inhoud te onthullen die in privékanalen werd gedeeld.
- In 2023 extraheerde een ander team van onderzoekers daadwerkelijke software-inloggegevens(nieuw venster) (bekend als “secrets”) uit de Copilot AI-assistent van GitHub, die is getraind op miljarden regels code. Een deel van die trainingscode bevatte inloggegevens en de onderzoekers overtuigden de AI om er meer dan 200 uit te spugen.
- In januari 2025, na de spetterende lancering van AI-startup DeepSeek, vond een onderzoeksteam een openbare database(nieuw venster) die een enorme hoeveelheid chatlogboeken, secrets en andere gevoelige gegevens bevatte.
- In augustus 2025 zeiden aannemers die voor Meta AI werkten dat ze persoonlijke gesprekken lazen(nieuw venster) waarin mensen gevoelige gegevens deelden met de chatbot.
Wanneer persoonlijke gegevens worden opgeslagen zonder end-to-end of zero-access versleuteling op de servers van een bedrijf, zijn die gegevens kwetsbaar om te worden gelekt. Chatlogboeken zijn een ongelooflijk aantrekkelijk doelwit voor hackers — en overheden. Een Amerikaanse rechtbank heeft OpenAI al bevolen om alle gebruikerschatlogboeken te bewaren(nieuw venster) (wat het bedrijf momenteel aanvecht). Die gegevens zouden dan op verzoek beschikbaar zijn voor de overheid. De VS heeft al verschillende methoden om gebruikers in het geheim te bespioneren, van aftappen zonder bevelschrift tot gegevensverzoeken die Big Tech-bedrijven moeten gehoorzamen.
Hoe meer gegevens AI-systemen absorberen, hoe meer ze het risico lopen te onthullen, of het nu gaat om onbedoelde lekken, bevooroordeelde output of overheidsdruk.
Het zijn niet alleen gegevens – het is invloed
Dit spreekt waarschijnlijk voor zich: de bedrijven en politieke actoren die u targeten met advertenties, hebben niet het beste met u voor.
AI tilt die manipulatie naar een heel nieuw niveau. In tegenstelling tot massamedia, die u kunt negeren, is AI verweven in uw dagelijks leven — het beantwoordt uw vragen en biedt in-app suggesties die u niet eens wilde. Het is niet alleen reactief; het is proactief. En wanneer het is gebouwd door bedrijven of wordt uitgebuit door overheden met specifieke agenda’s, maakt dat het ongelooflijk krachtig en gevaarlijk.
We zien al hoe dat eruitziet. In China is aangetoond dat DeepSeek politiek gevoelige onderwerpen vermijdt of wist. Vraag naar de protesten op het Tiananmenplein en u loopt tegen een muur(nieuw venster) — niet omdat de AI het niet weet, maar omdat de jurisdictie betekent dat hij het u niet mag vertellen.
Dit probleem is niet uniek voor China. De Grok-chatbot van Elon Musk deed wenkbrauwen fronsen door duidelijke politieke standpunten in te nemen(nieuw venster) en totaal verschillende output te bieden, afhankelijk van hoe de interne “knop” was ingesteld. Er is ook vastgesteld dat het de eigen meningen van Musk raadpleegt(nieuw venster) over een onderwerp voordat het zijn antwoord deelt. Dit toont aan hoe AI-begeleiding kan worden gevormd om bepaalde standpunten te pushen, subtiel of niet, wat steeds problematischer zal worden naarmate we meer op AI vertrouwen voor onderwijs en informatie zonder primaire bronnen te controleren.
Dus als AI vormgeeft wat u ziet, wat u denkt en hoe u zich voelt, wie bepaalt dan welke versie van de waarheid u krijgt?
AI gebouwd voor mensen, niet voor winst
Als we een AI willen die niet wordt gevormd door Big Tech of autoritaire politiek en die uw gegevens beschermt tegen hackers en lekken, moeten we iets anders bouwen. Dat betekent het ondersteunen van privé, onafhankelijke AI-tools zonder bijbedoelingen of verborgen agenda’s.
Lumo is een stap in die richting. Het is gebouwd in Europa, zonder investeringen uit Silicon Valley of buitenlandse surveillance, en staat onder toezicht van de non-profit Proton Foundation, die volgens haar handvest verplicht is de privacy van onze gemeenschap te bevorderen. Aangezien ons bedrijf is opgericht door wetenschappers die elkaar in 2014 bij CERN ontmoetten, worden we uitsluitend gefinancierd door onze gebruikers, niet door investeerders of adverteerders. Dit zorgt ervoor dat onze waarden en missie op één lijn blijven met de mensen die we dienen.
We hebben Lumo ontworpen om standaard privé te zijn, wat betekent dat het geen chatlogboeken bijhoudt en uw chats worden opgeslagen met zero-access versleuteling, zodat alleen u ze kunt zien. Lumo is ook gebouwd op open source-modellen en uw gegevens worden nooit gebruikt om de AI te trainen.
Lumo is nog maar het begin. Als we een toekomst willen waarin AI mensen dient — geen winst, geen macht — moeten we dat eisen. Door vandaag voor privéalternatieven te kiezen, helpt u een internet vorm te geven dat transparanter, democratischer en respectvoller voor uw rechten is. De tools zijn er. De keuze is aan u.




