Big Tech-virksomheder byggede imperier til en værdi af billioner ved at gøre vores privatliv til en handelsvare. Kunstig intelligens sætter turbo på deres forretningsmodel for overvågningskapitalisme ved at integrere sig i de værktøjer, vi bruger hver dag – ofte uden at give os klare forklaringer eller muligheden for at fravælge det.
Kraftfulde store sprogmodeller (LLM’er) indsamler endnu mere detaljerede data og udleder mere om Dem, end det tidligere var tænkeligt. AI bliver integreret i en bred vifte af platforme(nyt vindue), fra søgning til fotolagring og endda Deres enheds operativsystem, hvilket gør det vanskeligere at holde styr på, endsige give samtykke til, denne dataindsamling. Dette giver igen virksomheder som Google, Meta og Microsoft mulighed for at opbygge mere omfattende personlige profiler, tjene mere på dataene og udøve mere kontrol over de oplysninger og fortællinger, De ser.
Disse virksomheder kan dele eller sælge Deres private oplysninger til datamæglere og andre tredjeparter. Regeringer kan få adgang til disse data gennem stævninger(nyt vindue) eller endnu mere skjulte former for overvågning. Og personlige data kan blive eksponeret i et databrud, som det er sket igen(nyt vindue) og igen(nyt vindue) med tjenester som ChatGPT.
Resultatet er hurtig og omfattende dataindsamling med endnu færre kontroller af virksomheder for at indhente samtykke eller overveje konsekvenserne af teknologien. Databeskyttelseslove omkring AI er berygtet for at være langt bagud i forhold til branchen(nyt vindue).
Vi har akut brug for et privat alternativ, og derfor har vi bygget en ny fortrolig AI-assistent, Lumo(nyt vindue), der ikke gemmer nogen optegnelser over Deres samtaler. Deres gemte chats er kun tilgængelige for Dem, beskyttet af zero-access-kryptering. Når det kommer til Deres data, har De et valg – men flere mennesker er nødt til at forstå risiciene ved status quo.
AI gør Big Tech endnu mere magtfuld
AI gør det muligt for Google og Meta at skalere og befæste deres eksisterende monopoler, især inden for annoncering og udnyttelse af personlige data, men i en meget hurtigere og større skala.
Meta integrerer for eksempel AI dybt for at genoplive sin annonceforretning ved at scanne Deres opslag og endda tilføje Meta AI(nyt vindue) til sine end-to-end krypterede chatprodukter som WhatsApp i et åbenlyst forsøg på at suge flere personlige data fra platformen. Google er gået AI-først med sin annonceforretning(nyt vindue), så enhver annonce er optimeret til at manipulere Dem personligt. Og Googles Gemini er nu dybt integreret i hele deres økosystem, hvilket giver deres AI fripas til at indsamle data fra Android-telefoner og Google-apps.
AI ligner søgning, men er langt mere intim og dybt rodfæstet i Deres liv. Mens søgesporing bruger simple forespørgsler og klik til at forudsige Deres interesser, bruger AI naturlig sprogbehandling og endda billedgenkendelse til at forudsige de brands, beskeder, følelser og billeder, der vil give genklang dybest hos Dem. Nogle mennesker bliver endda følelsesmæssigt investeret(nyt vindue) i AI-chatbots på grund af, hvor tæt de kan efterligne menneskelig forbindelse – noget der aldrig skete med søgemaskiner.
Et reklamebureau praler(nyt vindue) med, at AI-drevet annoncering er et “seismisk skift”, der giver kunderne magten til at “måle stemning og præferencer” og endda “behandle visuelle data, såsom billeder og videoer, for at identificere brandlogoer og produktbrug, hvilket muliggør kontekstspecifik annoncemålretning.” Forestil Dem, hvis skønhedsprodukter kunne målrettes mod Deres barn i det øjeblik, de udtrykker bekymring over for en ven, eller hvis politikere kunne bruge AI-optimerede annoncer til at udnytte vælgernes private frygt.
Big Tech er allerede mere magtfuld end regeringer – forestil Dem, hvad de kunne opnå med uhæmmet AI.
Deres chats lækker
Deres privatliv er på spil, men det er Deres sikkerhed også. AI skaber en massiv, centraliseret pulje af intime oplysninger, der er stadig mere sårbare over for at blive eksponeret på forskellige måder.
Dette er allerede sket:
- I juli 2025 fandt journalister, at over 100.000 samtaler i ChatGPT(nyt vindue) var indekseret af Google og gjort søgbare. Brugere, der klikkede på “del”-knappen for at sende en samtale til venner eller kolleger, indså næsten helt sikkert ikke, at deres private samtaler ville være synlige for alle på internettet.
- I 2024 brugte forskere en prompt injection i Slack AI(nyt vindue) til at afsløre indhold delt i private kanaler.
- I 2023 udtrak et andet hold forskere faktiske softwarelegitimationsoplysninger(nyt vindue) (kendt som “secrets”) fra GitHubs Copilot AI-assistent, som er trænet på milliarder af kodelinjer. Noget af den træningskode inkluderede legitimationsoplysninger, og forskerne overbeviste AI’en om at spytte over 200 af dem ud.
- I januar 2025, efter den store lancering af AI-startupvirksomheden DeepSeek, fandt et forskerhold en offentlig database(nyt vindue), der inkluderede en enorm mængde chatlogs, hemmeligheder og andre følsomme data.
- I august 2025 sagde entreprenører, der arbejdede for Meta AI, at de læste personlige samtaler(nyt vindue), hvor folk delte følsomme data med chatbotten.
Når personlige data lagres uden end-to-end eller zero-access-kryptering på en virksomheds servere, er disse data sårbare over for at blive lækket. Chatlogs er et utroligt attraktivt mål for hackere – og regeringer. En amerikansk domstol har allerede beordret OpenAI til at opbevare alle brugerchatlogs(nyt vindue) (hvilket virksomheden i øjeblikket kæmper imod). Disse data ville så være tilgængelige for regeringen ved forespørgsel. USA har allerede en række metoder til hemmeligt at spionere mod brugere, fra aflytninger uden dommerkendelse til dataanmodninger, som Big Tech-virksomheder er forpligtet til at adlyde.
Jo flere data AI-systemer absorberer, jo mere risikerer de at afsløre, uanset om det er gennem utilsigtede lækager, forudindtagede output eller pres fra regeringen.
Det er ikke bare data – det er indflydelse
Dette siger sikkert sig selv: De virksomheder og politiske aktører, der målrettes mod Dem med annoncer, varetager ikke Deres bedste interesser.
AI tager den manipulation til et helt nyt niveau. I modsætning til massemedier, som De kan vælge at lukke ude, er AI vævet ind i Deres hverdag – besvarer Deres spørgsmål og tilbyder forslag i apps, som De ikke engang ønskede. Det er ikke bare reaktivt; det er proaktivt. Og når det er bygget af virksomheder eller udnyttet af regeringer med specifikke dagsordener, gør det det utroligt kraftfuldt og farligt.
Vi ser allerede, hvordan det ser ud. I Kina er det blevet vist, at DeepSeek undgår eller sletter politisk følsomme emner. Spørg om protesterne på Den Himmelske Freds Plads, og så vil De ramme en mur(nyt vindue) – ikke fordi AI’en ikke ved det, men fordi dens jurisdiktion betyder, at den ikke må fortælle Dem det.
Dette er ikke et problem, der er unikt for Kina. Elon Musks Grok-chatbot vakte opsigt for at tage klare politiske holdninger(nyt vindue) og tilbyde vidt forskellige output afhængigt af, hvordan dens interne “drejeknap” var indstillet. Den er også blevet fundet at konsultere Musks egne meninger(nyt vindue) om et emne, før den deler sit svar. Dette viser, hvordan AI-vejledning kan formes til at fremme bestemte synspunkter, subtilt eller ej, hvilket vil blive mere og mere problematisk, efterhånden som vi stoler mere på AI til uddannelse og information uden at tjekke primære kilder.
Så hvis AI former, hvad De ser, hvad De tænker, og hvordan De har det, hvem beslutter så, hvilken version af sandheden De får?
AI bygget til mennesker, ikke profit
Hvis vi ønsker en AI, der ikke er formet af Big Tech eller autoritær politik, og som beskytter Deres data mod hackere og lækager, er vi nødt til at bygge noget andet. Det betyder støtte til private, uafhængige AI-værktøjer uden bagvedliggende motiver eller skjulte dagsordener.
Lumo er et skridt i den retning. Den er bygget i Europa, uden investeringer fra Silicon Valley eller udenlandsk overvågning, og overvåges af nonprofitorganisationen Proton Foundation, som i henhold til sine vedtægter er forpligtet til at fremme privatlivet for vores fællesskab. Siden vores virksomhed blev grundlagt af forskere, der mødtes på CERN i 2014, er vi udelukkende blevet finansieret af vores brugere, ikke investorer eller annoncører. Dette sikrer, at vores værdier og mission forbliver på linje med de mennesker, vi tjener.
Vi designede Lumo til at være privat som standard, hvilket betyder, at den ikke gemmer chatlogs, og Deres chats er lagret med zero-access-kryptering, så kun De kan se dem. Lumo er også bygget på open source-modeller, og Deres data bliver aldrig brugt til at træne AI’en.
Lumo er kun begyndelsen. Hvis vi ønsker en fremtid, hvor AI tjener mennesker – ikke profit, ikke magt – må vi kræve det. Ved at vælge private alternativer i dag er De med til at forme et internet, der er mere gennemsigtigt, mere demokratisk og mere respektfuldt over for Deres rettigheder. Værktøjerne er her. Valget er Deres.






