Big Tech-företag byggde imperier värda biljoner dollar genom att förvandla våra privatliv till en handelsvara. Artificiell intelligens superladdar deras affärsmodell för övervakningskapitalism genom att integreras i de verktyg vi använder varje dag – ofta utan att ge oss tydliga förklaringar eller möjligheten att välja bort det.

Kraftfulla stora språkmodeller (LLM) samlar in ännu mer detaljerad data och drar fler slutsatser om dig än vad som tidigare var tänkbart. AI integreras i en mängd olika plattformar(nytt fönster), från sökning till fotolagring och till och med din enhets operativsystem, vilket gör det svårare att hålla koll på, och än mindre samtycka till, denna datainsamling. Detta gör det i sin tur möjligt för företag som Google, Meta och Microsoft att bygga mer omfattande personliga profiler, tjäna mer på datan och utöva mer kontroll över informationen och berättelserna du ser.

Dessa företag kan dela eller sälja din privata information till datamäklare och andra tredje parter. Regeringar kan få tillgång till denna data genom stämningar(nytt fönster) eller ännu mer hemliga former av övervakning. Och personuppgifter kan exponeras vid ett dataintrång, vilket har hänt om(nytt fönster) och om(nytt fönster) igen med tjänster som ChatGPT.

Resultatet är snabb och storskalig datainsamling, med ännu färre kontroller av företag för att inhämta samtycke eller överväga konsekvenserna av tekniken. Datalagstiftning kring AI ligger ökänt långt efter industrin(nytt fönster).

Vi behöver akut ett privat alternativ, och det är därför vi byggde en ny konfidentiell AI-assistent, Lumo(nytt fönster), som inte sparar några loggar över dina konversationer. Dina sparade chattar är endast tillgängliga för dig, skyddade av nollåtkomstkryptering. När det gäller dina data har du ett val – men fler människor måste förstå riskerna med status quo.

AI gör Big Tech ännu mer kraftfullt

AI gör det möjligt för Google och Meta att skala upp och befästa sina befintliga monopol, särskilt inom reklam och utnyttjande av personuppgifter, men i mycket snabbare och större skala.

Meta, till exempel, integrerar AI djupt för att återuppliva sin annonsverksamhet, genom att skanna dina inlägg och till och med lägga till Meta AI(nytt fönster) i sina end-to-end-krypterade chattprodukter som WhatsApp i ett uppenbart försök att suga ut mer personuppgifter från plattformen. Google har satsat på AI-först i sin annonsverksamhet(nytt fönster), så varje annons optimeras för att manipulera dig personligen. Och Googles Gemini är nu djupt integrerad i hela dess ekosystem, vilket ger dess AI fritt fram att samla in data från Android-telefoner och Google-appar.

AI liknar sökning, men är mycket mer intim och djupt rotad i ditt liv. Medan sökspårning använder enkla frågor och klick för att förutsäga dina intressen, använder AI naturlig språkbehandling och till och med bildigenkänning för att förutsäga varumärken, meddelanden, känslor och bilder som kommer att resonera djupast med dig. Vissa människor blir till och med känslomässigt engagerade(nytt fönster) i AI-chattbotar på grund av hur väl de kan imitera mänsklig kontakt – något som aldrig hände med sökmotorer.

En reklambyrå skryter(nytt fönster) om att AI-driven reklam är en “seismisk förändring” som ger kunder makten att “mäta känslor och preferenser” och till och med “bearbeta visuell data, såsom bilder och videor, för att identifiera varumärkeslogotyper och produktanvändning, vilket möjliggör kontextspecifik annonsinriktning.” Tänk om skönhetsprodukter kunde rikta sig till ditt barn i det ögonblick de uttrycker oro för en vän, eller om politiker kunde distribuera AI-optimerade annonser för att utnyttja väljares privata rädslor.

Big Tech är redan mäktigare än regeringar – föreställ dig vad de skulle kunna åstadkomma med otyglad AI.

Dina chattar läcker

Din integritet står på spel, men det gör även din säkerhet. AI skapar en massiv, centraliserad pool av intim information som blir alltmer sårbar för att exponeras på olika sätt.

Detta har redan hänt:

Närhelst personuppgifter lagras utan end-to-end eller nollåtkomstkryptering på ett företags servrar är dessa data sårbara för att läcka ut. Chattloggar är ett otroligt attraktivt mål för hackare – och regeringar. En amerikansk domstol har redan beordrat OpenAI att behålla alla användarchattloggar(nytt fönster) (vilket företaget för närvarande strider mot). Dessa data skulle då vara tillgängliga för regeringen på begäran. USA har redan en rad metoder för att i hemlighet spionera på användare, från avlyssning utan domstolsbeslut till databegäranden som Big Tech-företag måste lyda.

Ju mer data AI-system absorberar, desto mer riskerar de att avslöja, vare sig det sker genom oavsiktliga läckor, partiska utdata eller statliga påtryckningar.

Det handlar inte bara om data – det handlar om inflytande

Det säger sig nog självt: De företag och politiska aktörer som riktar annonser mot dig ser inte till ditt bästa.

AI tar den manipulationen till en helt ny nivå. Till skillnad från massmedia, som du kan välja att stänga av, är AI invävd i din vardag – den svarar på dina frågor och ger förslag i appar som du inte ens ville ha. Det är inte bara reaktivt; det är proaktivt. Och när det byggs av företag eller utnyttjas av regeringar med specifika agendor blir det otroligt kraftfullt och farligt.

Vi ser redan hur det ser ut. I Kina har det visat sig att DeepSeek undviker eller raderar politiskt känsliga ämnen. Fråga om protesterna på Himmelska fridens torg och du kommer att möta en vägg(nytt fönster) – inte för att AI:n inte vet, utan för att dess jurisdiktion innebär att den inte får berätta för dig.

Detta är inte ett problem som är unikt för Kina. Elon Musks chattbot Grok höjde på ögonbrynen för att ta tydliga politiska ställningstaganden(nytt fönster) och erbjuda vitt skilda utdata beroende på hur dess interna “ratt” var inställd. Det har också visat sig att den konsulterar Musks egna åsikter(nytt fönster) om ett ämne innan den delar sitt svar. Detta visar hur AI-vägledning kan formas för att driva vissa åsikter, subtilt eller inte, vilket kommer att bli alltmer problematiskt i takt med att vi förlitar oss mer på AI för utbildning och information utan att kontrollera primärkällor.

Så om AI formar vad du ser, vad du tänker och hur du känner, vem bestämmer vilken version av sanningen du får?

AI byggd för människor, inte vinst

Om vi vill ha en AI som inte formas av Big Tech eller auktoritär politik och som skyddar dina data från hackare och läckor, måste vi bygga något annorlunda. Det innebär att stödja privata, oberoende AI-verktyg utan dolda motiv eller hemliga agendor.

Lumo är ett steg i den riktningen. Det är byggt i Europa, utan investeringar från Silicon Valley eller utländsk övervakning, och övervakas av den ideella organisationen Proton Foundation, som enligt sina stadgar är skyldig att främja vår gemenskaps integritet. Eftersom vårt företag grundades av forskare som träffades på CERN 2014 har vi uteslutande finansierats av våra användare, inte investerare eller annonsörer. Detta säkerställer att våra värderingar och vårt uppdrag förblir i linje med de människor vi tjänar.

Vi designade Lumo för att vara privat som standard, vilket innebär att den inte sparar chattloggar, och dina chattar lagras med nollåtkomstkryptering, så att endast du kan se dem. Lumo är också byggt på modeller med öppen källkod, och dina data används aldrig för att träna AI:n.

Lumo är bara början. Om vi vill ha en framtid där AI tjänar människor – inte vinst, inte makt – måste vi kräva det. Genom att välja privata alternativ idag hjälper du till att forma ett internet som är mer transparent, mer demokratiskt och mer respektfullt mot dina rättigheter. Verktygen finns här. Valet är ditt.