Společnosti Big Tech vybudovaly impéria v hodnotě bilionů dolarů tím, že proměnily naše osobní životy v komoditu. Umělá inteligence posiluje jejich obchodní model kapitalismu dohledu tím, že se integruje do nástrojů, které používáme každý den – často bez jasného vysvětlení nebo možnosti odhlášení.

Výkonné velké jazykové modely (LLM) shromažďují ještě podrobnější data a vyvozují o vás více, než bylo dříve představitelné. AI je integrována do široké škály platforem(nové okno), od vyhledávání po úložiště fotografií a dokonce i do operačního systému vašeho zařízení, což ztěžuje sledování, natož souhlas s tímto sběrem dat. To zase umožňuje společnostem jako Google, Meta a Microsoft vytvářet komplexnější osobní profily, více profitovat z dat a uplatňovat větší kontrolu nad informacemi a narativy, které vidíte.

Tyto společnosti mohou sdílet nebo prodávat vaše soukromé informace datovým brokerům a dalším třetím stranám. Vlády mohou získávat tato data prostřednictvím soudních obsílek(nové okno) nebo ještě skrytějších forem dohledu. A osobní údaje mohou být odhaleny při úniku dat, jak se to stalo znovu(nové okno) a znovu(nové okno) u služeb jako ChatGPT.

Výsledkem je rychlý a rozsáhlý sběr dat s ještě menšími kontrolami společností ohledně získání souhlasu nebo zvážení důsledků technologie. Zákony na ochranu dat týkající se AI jsou notoricky daleko za průmyslem(nové okno).

Naléhavě potřebujeme soukromou alternativu, a proto jsme vytvořili nového důvěrného AI asistenta, Lumo(nové okno), který neuchovává žádné záznamy o vašich konverzacích. Vaše uložené chaty jsou dostupné pouze vám, chráněné šifrováním s nulovým přístupem. Pokud jde o vaše data, máte na výběr – ale více lidí musí pochopit rizika současného stavu.

AI dělá Big Tech ještě mocnějším

AI umožňuje Google a Meta škálovat a upevňovat své stávající monopoly, zejména v oblasti reklamy a využívání osobních údajů, ale v mnohem rychlejším a větším měřítku.

Například Meta hluboce integruje AI, aby oživila svůj reklamní byznys, skenuje vaše příspěvky a dokonce přidává Meta AI(nové okno) do svých koncově šifrovaných chatovacích produktů, jako je WhatsApp, ve zjevném pokusu odčerpat z platformy více osobních údajů. Google přešel na strategii AI-first ve svém reklamním byznysu(nové okno), takže každá reklama je optimalizována tak, aby vámi manipulovala osobně. A Gemini od Google je nyní hluboce integrována do celého jeho ekosystému, což dává jeho AI volnou ruku ke sběru dat z telefonů Android a aplikací Google.

AI je podobná vyhledávání, ale mnohem intimnější a hlouběji zakořeněná ve vašem životě. Zatímco sledování vyhledávání používá jednoduché dotazy a kliknutí k předpovídání vašich zájmů, AI používá zpracování přirozeného jazyka a dokonce rozpoznávání obrazu k předpovídání značek, zpráv, emocí a obrazů, které s vámi budou nejhlouběji rezonovat. Někteří lidé se dokonce stávají emocionálně vázanými(nové okno) na AI chatboty kvůli tomu, jak věrně dokáží napodobit lidské spojení – což se u vyhledávačů nikdy nestalo.

Jedna reklamní agentura se chlubí(nové okno), že reklama poháněná AI je „seismický posun“, který dává klientům sílu „měřit sentiment a preference“ a dokonce „zpracovávat vizuální data, jako jsou obrázky a videa, k identifikaci log značek a používání produktů, což umožňuje cílení reklamy specifické pro kontext.“ Představte si, že by kosmetické produkty mohly cílit na vaše dítě v okamžiku, kdy svěří úzkosti příteli, nebo kdyby politici mohli nasadit AI optimalizované reklamy, aby těžili ze soukromých obav voličů.

Big Tech je již nyní mocnější než vlády – představte si, čeho by mohli dosáhnout s nespoutanou AI.

Vaše chaty unikají

V sázce je vaše soukromí, ale také vaše bezpečnost. AI vytváří masivní, centralizovaný fond intimních informací, který je stále zranitelnější vůči odhalení různými způsoby.

To se již stalo:

Kdykoli jsou osobní údaje uloženy bez koncového šifrování nebo šifrování s nulovým přístupem na serverech společnosti, jsou tato data zranitelná vůči úniku. Chatové logy jsou neuvěřitelně atraktivním cílem pro hackery – a vlády. Soud v USA již nařídil OpenAI uchovávat všechny uživatelské chatové logy(nové okno) (proti čemuž společnost v současnosti bojuje). Tato data by pak byla k dispozici vládě na vyžádání. USA již mají různé metody k tajnému sledování uživatelů, od odposlechů bez soudního příkazu po žádosti o data, které jsou společnosti Big Tech povinny plnit.

Čím více dat systémy AI absorbují, tím více riskují odhalení, ať už prostřednictvím náhodných úniků, zkreslených výstupů nebo vládního tlaku.

Nejde jen o data – jde o vliv

Pravděpodobně to není třeba říkat: Společnosti a političtí operativci, kteří na vás cílí reklamy, nehledí na vaše nejlepší zájmy.

AI posouvá tuto manipulaci na zcela novou úroveň. Na rozdíl od masmédií, která můžete vypnout, je AI vetkána do vašeho každodenního života – odpovídá na vaše otázky a nabízí návrhy v aplikacích, které jste ani nechtěli. Není jen reaktivní; je proaktivní. A když je vytvořena společnostmi nebo zneužita vládami se specifickými agendami, činí ji to neuvěřitelně mocnou a nebezpečnou.

Už vidíme, jak to vypadá. V Číně se ukázalo, že DeepSeek se vyhýbá nebo maže politicky citlivá témata. Zeptejte se na protesty na náměstí Tchien-an-men a narazíte na zeď(nové okno) – ne proto, že by to AI nevěděla, ale protože její jurisdikce znamená, že vám to nesmí říct.

Toto není problém unikátní pro Čínu. Chatbot Grok Elona Muska vzbudil pozornost tím, že zaujímal jasné politické postoje(nové okno) a nabízel divoce odlišné výstupy v závislosti na tom, jak byl nastaven jeho vnitřní „ciferník“. Také bylo zjištěno, že konzultuje vlastní názory Muska(nové okno) na téma, než sdílí svou odpověď. To ukazuje, jak lze vedení AI tvarovat k prosazování určitých názorů, ať už jemně nebo ne, což bude stále problematičtější, jak budeme více spoléhat na AI pro vzdělávání a informace bez kontroly primárních zdrojů.

Takže pokud AI formuje to, co vidíte, co si myslíte a jak se cítíte, kdo rozhoduje o tom, jakou verzi pravdy dostanete?

AI vytvořená pro lidi, ne pro zisk

Pokud chceme AI, která není formována Big Tech nebo autoritářskou politikou a která chrání vaše data před hackery a úniky, musíme vybudovat něco jiného. To znamená podporovat soukromé, nezávislé nástroje AI bez postranních úmyslů nebo skrytých agend.

Lumo je krokem tímto směrem. Je vytvořeno v Evropě, bez investic ze Silicon Valley nebo zahraničního dohledu, a dohlíží na něj nezisková nadace Proton Foundation, která je svou chartou povinna podporovat soukromí naší komunity. Vzhledem k tomu, že naše společnost byla založena vědci, kteří se setkali v CERNu v roce 2014, jsme financováni výhradně našimi uživateli, nikoli investory nebo inzerenty. Tím je zajištěno, že naše hodnoty a mise zůstávají v souladu s lidmi, kterým sloužíme.

Navrhli jsme Lumo tak, aby bylo ve výchozím nastavení soukromé, což znamená, že neuchovává chatové logy a vaše chaty jsou uloženy s šifrováním s nulovým přístupem, takže je vidíte pouze vy. Lumo je také postaveno na modelech s otevřeným zdrojovým kódem a vaše data nejsou nikdy použita k trénování AI.

Lumo je jen začátek. Pokud chceme budoucnost, kde AI slouží lidem – ne zisku, ne moci – musíme ji požadovat. Volbou soukromých alternativ dnes pomáháte formovat internet, který je transparentnější, demokratičtější a více respektuje vaše práva. Nástroje jsou zde. Volba je na vás.