Firmy Big Tech zbudowały imperia warte biliony dolarów, zamieniając nasze życie osobiste w towar. Sztuczna inteligencja napędza ich model biznesowy kapitalizmu inwigilacyjnego, integrując się z narzędziami, których używamy na co dzień — często bez jasnych wyjaśnień lub możliwości rezygnacji.

Potężne duże modele językowe (LLM) zbierają jeszcze bardziej szczegółowe dane i wnioskują o Tobie więcej, niż wcześniej można było sobie wyobrazić. AI jest integrowana z szeroką gamą platform(nowe okno), od wyszukiwania po przestrzeń dyskową na zdjęcia, a nawet system operacyjny urządzenia, co utrudnia śledzenie, a tym bardziej wyrażenie zgody na gromadzenie tych danych. To z kolei pozwala firmom takim jak Google, Meta i Microsoft budować bardziej kompleksowe profile osobiste, czerpać większe zyski z danych i sprawować większą kontrolę nad informacjami i narracjami, które widzisz.

Firmy te mogą udostępniać lub sprzedawać Twoje prywatne informacje brokerom danych i innym stronom trzecim. Rządy mogą uzyskać dostęp do tych danych poprzez wezwania sądowe(nowe okno) lub jeszcze bardziej tajne formy inwigilacji. A dane osobowe mogą zostać ujawnione w wyniku naruszenia danych, co zdarzało się raz(nowe okno) po raz(nowe okno) w usługach takich jak ChatGPT.

Skutkiem jest szybkie i masowe gromadzenie danych przy jeszcze mniejszej kontroli nad firmami w zakresie uzyskiwania zgody lub rozważania konsekwencji technologii. Przepisy o ochronie danych dotyczące AI są notorycznie daleko w tyle za branżą(nowe okno).

Pilnie potrzebujemy prywatnej alternatywy, dlatego zbudowaliśmy nowego poufnego asystenta AI, Lumo(nowe okno), który nie prowadzi żadnych rejestrów Twoich konwersacji. Twoje zapisane czaty są dostępne tylko dla Ciebie, chronione przez szyfrowanie z zerowym dostępem. Jeśli chodzi o Twoje dane, masz wybór — ale więcej osób musi zrozumieć ryzyko związane ze status quo.

AI czyni Big Tech jeszcze potężniejszym

Sztuczna inteligencja umożliwia Google i Meta skalowanie i umacnianie ich istniejących monopoli, zwłaszcza w reklamie i wykorzystywaniu danych osobowych, ale w znacznie szybszym tempie i na większą skalę.

Na przykład Meta głęboko integruje AI, aby ożywić swój biznes reklamowy, skanując Twoje posty, a nawet dodając Meta AI(nowe okno) do swoich zaszyfrowanych end-to-end produktów czatowych, takich jak WhatsApp, w oczywistej próbie wyprowadzenia większej ilości danych osobowych z platformy. Google postawił na AI w swoim biznesie reklamowym(nowe okno), więc każda reklama jest zoptymalizowana tak, aby manipulować Tobą osobiście. A Gemini od Google jest teraz głęboko zintegrowane z całym ekosystemem, dając AI wolną rękę do zbierania danych z telefonów z Androidem i aplikacji Google.

AI jest podobna do wyszukiwania, ale znacznie bardziej intymna i głęboko zakorzeniona w Twoim życiu. Podczas gdy śledzenie wyszukiwania wykorzystuje proste zapytania i kliknięcia do przewidywania Twoich zainteresowań, AI wykorzystuje przetwarzanie języka naturalnego, a nawet rozpoznawanie obrazów, aby przewidywać marki, wiadomości, emocje i obrazy, które najgłębiej z Tobą rezonują. Niektórzy ludzie nawet emocjonalnie angażują się(nowe okno) w chatboty AI ze względu na to, jak blisko mogą naśladować ludzkie połączenie — coś, co nigdy nie miało miejsca w przypadku wyszukiwarek.

Jedna agencja reklamowa chwali się(nowe okno), że reklama oparta na AI to „sejsmiczna zmiana”, która daje klientom moc „oceny nastrojów i preferencji”, a nawet „przetwarzania danych wizualnych, takich jak obrazy i filmy, w celu identyfikacji logo marki i użycia produktu, umożliwiając targetowanie reklam specyficzne dla kontekstu”. Wyobraź sobie, że produkty kosmetyczne mogłyby celować w Twoje dziecko w momencie, gdy wyraża ono niepokój przyjacielowi, lub gdyby politycy mogli wdrażać zoptymalizowane przez AI reklamy, aby żerować na prywatnych obawach wyborców.

Big Tech jest już potężniejszy niż rządy — wyobraź sobie, co mogliby osiągnąć z nieokiełznaną sztuczną inteligencją.

Twoje czaty wyciekają

Twoja prywatność jest zagrożona, ale także Twoje bezpieczeństwo. AI tworzy ogromną, scentralizowaną pulę intymnych informacji, które są coraz bardziej narażone na ujawnienie na różne sposoby.

To już się wydarzyło:

Za każdym razem, gdy dane osobowe są przechowywane bez szyfrowania end-to-end lub szyfrowania z zerowym dostępem na serwerach firmy, dane te są narażone na wyciek. Logi czatów są niezwykle atrakcyjnym celem dla hakerów — i rządów. Sąd w USA już nakazał OpenAI zachowanie wszystkich logów czatów użytkowników(nowe okno) (z czym firma obecnie walczy). Dane te byłyby następnie dostępne dla rządu na żądanie. USA mają już różne metody potajemnego szpiegowania użytkowników, od podsłuchów bez nakazu po żądania danych, których firmy Big Tech muszą przestrzegać.

Im więcej danych wchłaniają systemy AI, tym większe ryzyko ich ujawnienia, czy to w wyniku przypadkowych wycieków, stronniczych wyników czy nacisków rządowych.

To nie tylko dane — to wpływ

To prawdopodobnie oczywiste: firmy i działacze polityczni celujący w Ciebie reklamami nie dbają o Twój najlepszy interes.

AI przenosi tę manipulację na zupełnie nowy poziom. W przeciwieństwie do środków masowego przekazu, które możesz wyłączyć, AI jest wpleciona w Twoje codzienne życie — odpowiadając na Twoje pytania i oferując sugestie w aplikacji, których nawet nie chciałeś. To nie jest tylko reaktywne; to jest proaktywne. A kiedy jest budowane przez firmy lub wykorzystywane przez rządy o określonych celach, staje się to niezwykle potężne i niebezpieczne.

Już widzimy, jak to wygląda. W Chinach wykazano, że DeepSeek unika lub usuwa tematy wrażliwe politycznie. Zapytaj o protesty na placu Tiananmen, a trafisz na mur(nowe okno) — nie dlatego, że AI nie wie, ale dlatego, że jej jurysdykcja oznacza, że nie wolno jej Ci powiedzieć.

To nie jest problem wyłącznie Chin. Chatbot Grok Elona Muska wywołał zdziwienie, zajmując jasne stanowiska polityczne(nowe okno) i oferując diametralnie różne wyniki w zależności od tego, jak ustawiono jego wewnętrzne „pokrętło”. Wykazano również, że konsultuje własne opinie Muska(nowe okno) na dany temat, zanim udostępni swoją odpowiedź. To pokazuje, jak można kształtować wskazówki AI, aby promować określone poglądy, subtelnie lub nie, co stanie się coraz bardziej problematyczne, w miarę jak będziemy polegać na AI w edukacji i informacji bez sprawdzania źródeł pierwotnych.

Więc jeśli AI kształtuje to, co widzisz, co myślisz i jak się czujesz, kto decyduje, jaką wersję prawdy otrzymasz?

AI zbudowane dla ludzi, nie dla zysku

Jeśli chcemy AI, która nie jest kształtowana przez Big Tech lub autorytarną politykę i która chroni Twoje dane przed hakerami i wyciekami, musimy zbudować coś innego. Oznacza to wspieranie prywatnych, niezależnych narzędzi AI bez ukrytych motywów lub celów.

Lumo jest krokiem w tym kierunku. Jest zbudowane w Europie, bez inwestycji z Doliny Krzemowej czy zagranicznej inwigilacji, i nadzorowane przez organizację non-profit Proton Foundation, która zgodnie ze swoim statutem ma na celu wspieranie prywatności naszej społeczności. Ponieważ nasza firma została założona przez naukowców, którzy spotkali się w CERN w 2014 roku, jesteśmy finansowani wyłącznie przez naszych użytkowników, a nie inwestorów czy reklamodawców. Zapewnia to, że nasze wartości i misja pozostają zbieżne z ludźmi, którym służymy.

Zaprojektowaliśmy Lumo tak, aby było domyślnie prywatne, co oznacza, że nie przechowuje logów czatów, a Twoje czaty są przechowywane z szyfrowaniem z zerowym dostępem, więc tylko Ty możesz je zobaczyć. Lumo jest również zbudowane na modelach open-source, a Twoje dane nigdy nie są używane do szkolenia AI.

Lumo to dopiero początek. Jeśli chcemy przyszłości, w której AI służy ludziom — a nie zyskowi czy władzy — musimy tego żądać. Wybierając dziś prywatne alternatywy, pomagasz kształtować Internet, który jest bardziej przejrzysty, bardziej demokratyczny i bardziej szanuje Twoje prawa. Narzędzia są tutaj. Wybór należy do Ciebie.