Store teknologiselskaper bygde imperier verdt billioner av dollar ved å gjøre privatlivene våre til en vare. Kunstig intelligens superladder forretningsmodellen deres for overvåkingskapitalisme ved å integrere seg i verktøyene vi bruker hver dag – ofte uten å gi oss klare forklaringer eller muligheten til å velge bort.

Kraftige store språkmodeller (LLM-er) samler inn enda mer detaljerte data og utleder mer om deg enn det som tidligere var tenkelig. KI blir integrert i et bredt spekter av plattformer(nytt vindu), fra søk til bildelagring og til og med enhetens operativsystem, noe som gjør det vanskeligere å holde styr på, for ikke å snakke om å samtykke til, denne datainnsamlingen. Dette lar i sin tur selskaper som Google, Meta og Microsoft bygge mer omfattende personlige profiler, tjene mer på dataene og utøve mer kontroll over informasjonen og narrativene du ser.

Disse selskapene kan dele eller selge din private informasjon til datameglere og andre tredjeparter. Myndigheter kan hente ut disse dataene gjennom stevninger(nytt vindu) eller enda mer skjulte forms for overvåking. Og personopplysninger kan bli avslørt i et databrudd, slik det har skjedd om(nytt vindu) og om(nytt vindu) igjen med tjenester som ChatGPT.

Resultatet er rask og storstilt datainnsamling, med enda færre kontroller på at selskaper innhenter samtykke eller vurderer konsekvensene av teknologien. Databeskyttelseslover rundt KI ligger beryktet langt bak bransjen(nytt vindu).

Vi trenger presserende et privat alternativ, og det er derfor vi bygde en ny konfidensiell KI-assistent, Lumo(nytt vindu), som ikke fører noe register over samtalene dine. De lagrede chattene dine er kun tilgjengelige for deg, beskyttet av nulltilgangskryptering. Når det gjelder dataene dine, har du et valg – men flere mennesker må forstå risikoen ved tingenes tilstand i dag.

KI gjør Big Tech enda kraftigere

KI aktiverer at Google og Meta kan skalere og befeste sine eksisterende monopoler, spesielt innen annonsering og utnyttelse av personopplysninger, men i en mye raskere og større skala.

Meta, for eksempel, integrerer KI dypt for å revitalisere annonsevirksomheten sin, ved å skanne artiklene dine og til og med legge Meta AI(nytt vindu) til sine ende-til-ende-krypterte chat-produkter som WhatsApp i et tilsynelatende forsøk på å tappe mer personopplysninger fra plattformen. Google har gått KI-først med sin annonsevirksomhet(nytt vindu), slik at hver annonse er optimalisert for å manipulere deg personlig. Og Googles Gemini er nå dypt integrert i hele deres økosystem, og gir KI-en et frikort til å samle inn data fra Android-telefoner og Google-apper.

KI ligner på søk, men er langt mer intimt og dypt forankret i livet ditt. Mens søkesporing bruker enkle spørringer og klikk for å forutsi interessene dine, bruker KI naturlig språkprosessering og til og med bildegjenkjenning for å forutsi hvilke merker, meldinger, følelser og bilder som vil gi mest gjenklang hos deg. Noen mennesker blir til og med følelsesmessig investert(nytt vindu) i KI-chatboter på grunn av hvor tett de kan imitere menneskelig tilkobling – noe som aldri skjedde med søkemotorer.

Ett annonsebyrå skryter(nytt vindu) av at KI-drevet annonsering er et “seismisk skifte” som gir kunder makt til å “måle sentiment og preferanser” og til og med “behandle visuelle data, for eksempel bilder og videoer, for å identifisere merkevarelogoer og produktbruk, som aktiverer kontekstspesifikk målretting av annonser”. Tenk om skjønnhetsprodukter kunne målrette seg mot barnet ditt i det øyeblikket de uttrykker bekymring overfor en venn, eller hvis politikere kunne distribuere KI-optimaliserte annonser for å utnytte velgernes private frykt.

Big Tech er allerede mektigere enn myndigheter – forestill deg hva de kunne oppnådd med uhemmet KI.

Chattene dine har en lekkasje

Personvernet ditt står på spill, men det gjør også sikkerheten din. KI skaper en massiv, sentralisert pool av intim informasjon som er stadig mer sårbar for å bli avslørt på en rekke måter.

Dette har allerede skjedd:

  • I juli 2025 fant journalister at over 100 000 samtaler i ChatGPT(nytt vindu) ble indeksert av Google og gjort søkbare. Brukere som klikket på “dele”-knappen for å sende en samtale til venner eller kolleger, innså nesten helt sikkert ikke at de private samtalene deres ville være synlige for alle på internett.
  • I 2024 brukte forskere en ledetekstinjeksjon i Slack AI(nytt vindu) for å avsløre innhold som var delt i private kanaler.
  • I 2023 hentet et annet team av forskere ut faktisk påloggingsinformasjon for programvare(nytt vindu) (kjent som “hemmeligheter”) fra GitHubs Copilot KI-assistent, som er trent på milliarder av linjer med kode. Noe av den treningskoden inkluderte påloggingsinformasjon, og forskerne overbeviste KI-en om å spytte ut over 200 av dem.
  • I januar 2025, etter den prangende lanseringen av KI-oppstartsselskapet DeepSeek, fant et forskerteam en offentlig database(nytt vindu) som inkluderte et enormt volum med chat-logger, hemmeligheter og andre sensitive data.
  • I august 2025 sa entreprenører som jobbet for Meta AI at de hadde lest personlige samtaler(nytt vindu) der folk delte sensitive data med chatboten.

Når personopplysninger er lagret uten ende-til-ende- eller nulltilgangskryptering på et selskaps tjenere, er disse opplysningene sårbare for å bli lekket. Chat-logger er et utrolig attraktivt mål for hackere – og myndigheter. En amerikansk domstol har allerede beordret OpenAI til å beholde alle brukernes chat-logger(nytt vindu) (noe selskapet for tiden kjemper mot). Disse dataene vil da være tilgjengelige for myndighetene på forespørsel. USA har allerede en rekke metoder for å i hemmelighet spionere på brukere, fra avlytting uten domstolsbeslutning til dataforespørsler som Big Tech-selskaper er pålagt å etterkomme.

Jo mer data AI-systemer absorberer, jo mer risikerer de å avsløre, enten gjennom utilsiktede lekkasjer, partiske utdata eller press fra myndighetene.

Det er ikke bare data – det er innflytelse

Dette sier seg nok selv: Selskapene og de politiske aktørene som retter annonser mot deg, ivaretar ikke dine beste interesser.

AI tar den manipulasjonen til et helt nytt nivå. I motsetning til massemedier, som du kan velge å ignorere, er AI vevd inn i hverdagen din — den svarer på spørsmålene dine og tilbyr forslag i appen som du ikke en gang ba om. Det er ikke bare reaktivt; det er proaktivt. Og når det er bygget av selskaper eller utnyttet av myndigheter med spesifikke agendaer, gjør det det utrolig kraftig og farlig.

Vi ser allerede hvordan det ser ut. I Kina har det vist seg at DeepSeek unngår eller sletter politisk følsomme emner. Spør du om protestene på Den himmelske freds plass, vil du møte veggen(nytt vindu) — ikke fordi AI-en ikke vet, men fordi dens jurisdiksjon betyr at den ikke har lov til å fortelle deg det.

Dette er ikke et problem som er unikt for Kina. Elon Musks Grok-chatbot fikk folk til å heve øyenbrynene for å ta klare politiske standpunkter(nytt vindu) og tilby vidt forskjellige utdata avhengig av hvordan den interne «skiven» var stilt inn. Den har også vist seg å konsultere Musks egne meninger(nytt vindu) om et emne før den deler svaret sitt. Dette viser hvordan AI-veiledning kan formes for å fremme bestemte synspunkter, subtilt eller ikke, noe som vil bli stadig mer problematisk ettersom vi stoler mer på AI for utdanning og informasjon uten å sjekke primære kilder.

Så hvis AI former hva du ser, hva du tenker, og hvordan du føler deg, hvem bestemmer hvilken versjon av sannheten du får?

AI bygget for mennesker, ikke profitt

Hvis vi vil ha en AI som ikke er formet av Big Tech eller autoritær politikk, og som beskytter dataene dine mot hackere og lekkasjer, må vi bygge noe annerledes. Det betyr å støtte private, uavhengige AI-verktøy uten baktanker eller skjulte agendaer.

Lumo er et skritt i den retningen. Den er bygget i Europa, uten Silicon Valley-investeringer eller utenlandsk overvåking, og føres tilsyn med av den ideelle organisasjonen Proton Foundation, som er pålagt av vedtektene sine å fremme personvernet til fellesskapet vårt. Siden selskapet vårt ble grunnlagt av forskere som møttes på CERN i 2014, har vi utelukkende blitt finansiert av brukerne våre, ikke av investorer eller annonsører. Dette sikrer at verdiene våre og oppdraget vårt forblir på linje med menneskene vi betjener.

Vi designet Lumo til å være privat som standard, noe som betyr at den ikke beholder chat-logger, og chattene dine er lagret med nulltilgangskryptering, slik at bare du kan se dem. Lumo er også bygget på modeller med åpen kildekode, og dataene dine blir aldri brukt til å trene opp AI-en.

Lumo er bare begynnelsen. Hvis vi vil ha en fremtid der AI tjener mennesker — ikke profitt, ikke makt — må vi kreve det. Ved å velge private alternativer i dag, er du med på å forme et internett som er mer gjennomsiktig, mer demokratisk og mer respektfullt for dine rettigheter. Verktøyene er her. Valget er ditt.