OpenAI wydało ChatGPT Atlas, nową przeglądarkę, która wbudowuje ChatGPT bezpośrednio w każdą interakcję ludzi w sieci. Firma opisuje to jako krok w kierunku cyfrowego asystenta, który porusza się po stronach internetowych razem z Tobą, interpretuje to, co widzisz, i wykonuje zadania, o które prosisz.

Obecnie dostępny tylko na Macu, Atlas obiecuje niezwykłą wygodę. Jednak wprowadza również nowe zagrożenia dla prywatności i bezpieczeństwa o nieznanych konsekwencjach. OpenAI nie odpowiedziało jeszcze na kilka kluczowych pytań dotyczących tego, w jaki sposób produkt chroni dane użytkownika.

Wiemy już jednak wystarczająco dużo, aby zbadać jego główne zalety i poważne zagrożenia dla prywatności, które się z nimi wiążą.

Jak działa ChatGPT Atlas

Atlas wprowadza dwa podstawowe systemy, które zmieniają sposób działania przeglądania. Pierwszy, pamięć przeglądarki (browser memories), rejestruje odwiedzane witryny i sposób interakcji z nimi, dążąc do uczynienia odpowiedzi ChatGPT bardziej osobistymi. Drugi, tryb agenta (agent mode), pozwala AI otwierać strony, wypełniać formularze lub wykonywać zadania w oknie przeglądarki.

OpenAI twierdzi, że te funkcje są opcjonalne. Możesz je wyłączyć, usunąć ich dane lub przeglądać prywatnie. Firma twierdzi również, że Twoje treści przeglądania są wyłączone z trenowania modelu, chyba że wyrazisz na to zgodę (opt-in).

Jednak mimo całego mówienia o wymyślaniu na nowo, ChatGPT Atlas nadal działa na Chromium(nowe okno) — tym samym silniku open-source, który stoi za Chrome i Edge.

Ramy te opierają się na ustawieniach i nawykach użytkownika. Liczne badania pokazują, że większość ludzi nie zmienia swoich ustawień domyślnych(nowe okno). A wcześniejsze przeglądarki AI pokazują, jak kruche mogą być takie kontrole w warunkach rzeczywistych.

Ryzyko bezpieczeństwa przeglądarek AI: Co do tej pory odkryli badacze

Jedną z pierwszych przeglądarek AI był Comet od Perplexity, wydany w lipcu 2025 roku. Luka w systemie AI przeglądarki, po raz pierwszy zgłoszona przez Time(nowe okno), ujawniła, w jaki sposób przeglądanie AI może otworzyć nowe wektory ataku. Badacze z LayerX odkryli lukę o nazwie CometJacking(nowe okno), która pozwalała złośliwym linkom ukrywać instrukcje wewnątrz adresów URL. Po kliknięciu AI Cometa interpretowała te prompty jako prawdziwe polecenia.

Testy wykazały, że przeglądarka mogła pobierać dane z Gmaila i kalendarzy, pobierać złośliwe pliki, a w niektórych przypadkach nawet próbować dokonywać zakupów na fałszywych stronach internetowych. iTnews później szczegółowo opisał(nowe okno) podobne ustalenia badaczy Guardio, którzy opisali Cometa jako nadgorliwego asystenta — szybkiego w działaniu i powolnego w kwestionowaniu podejrzanych instrukcji. Analiza Kaspersky’ego(nowe okno) poszła dalej, ostrzegając, że zintegrowanie AI bezpośrednio z przeglądarką daje złośliwym treściom internetowym bezpośredni kanał do manipulowania nią.

Dlaczego Atlas jest ryzykowny z założenia

Wyszukiwanie zawsze było inwigilacją. Wyszukiwanie AI czyni to inwigilacją intymną. Atlas czyni to inwigilacją totalną.

Tradycyjne silniki, takie jak Google, przechwytują pojedyncze pytania — objaw medyczny, przepis, zapytanie prawne. Konwersacyjna AI zamienia te fragmenty w historie. Prosi Cię o wyjaśnienia, zachęca do zadawania pytań uzupełniających i rejestruje kontekst. Z czasem te wymiany tworzą szczegółowe portrety Twojego życia prywatnego, budując narrację o Twoich intencjach, słabościach i wzorcach podejmowania decyzji.

Jest to już ryzykowne, gdy ogranicza się do aplikacji ChatGPT. Dzięki Atlasowi ten sam mechanizm żyje wewnątrz Twojej przeglądarki, oferując OpenAI całkowitą inwigilację każdej Twojej interakcji online.

Własna dokumentacja OpenAI(nowe okno) potwierdza, że Atlas może przeglądać strony, które odwiedzasz, zapamiętywać ich zawartość dzięki pamięci przeglądarki i działać w Twoim imieniu w trybie agenta. Każda warstwa zwiększa widoczność. Atlas nie rejestruje tylko Twoich zapytań; obserwuje, co czytasz, jak długo zostajesz i co robisz dalej.

Wynikiem jest pojedynczy, kompleksowy zapis intencji i zachowania. Nawet jeśli OpenAI twierdzi, że te treści nie są domyślnie wykorzystywane do trenowania, nadal są przetwarzane i analizowane w celu personalizacji. Poprzez wnioskowanie Atlas może łączyć zwykłe działania, aby budować odkrywcze narracje — jak łączenie wyszukiwań objawów lęku z katalogami terapeutów i badaniami leków, aby stworzyć obraz zdrowia psychicznego danej osoby.

Kontrole prywatności istnieją, ale wymagają ciągłej czujności. Użytkownicy mogą przełączać widoczność lub usuwać wspomnienia, ale większość zapomni zarządzać tymi ustawieniami. Możesz uzyskać swoje dane lub je usunąć. Ale modele zostały już wytrenowane na tym, co zrobiłeś.

Atlas rozszerza inwigilację poza to, co osiągnęło Google, łącząc dane wyszukiwania i przeglądarki. OpenAI połączyło konwersację AI, interakcje w sieci (w tym te poza silnikiem wyszukiwania) i zbieranie danych osobowych w jeden interfejs, który rozumie kontekst i działa na jego podstawie.

Obawy dotyczące prywatności i ujawnienia danych

TechCrunch donosi(nowe okno), że Atlas zachowuje rejestr aktywności przeglądania, aby personalizować odpowiedzi. Kaspersky ostrzega(nowe okno), że AI zintegrowana na tym poziomie ma pełny wgląd w ruch sieciowy i pliki na urządzeniu. Ta widoczność może obejmować prywatne materiały, takie jak subskrypcje, dokumenty służbowe lub dane finansowe.

Przeglądarki AI oznaczają przejście od pasywnego zbierania danych do ciągłego mapowania behawioralnego. Każda odwiedzona strona, każdy napisany prompt, każde zlecone zadanie staje się kolejnym sygnałem w pętli sprzężenia zwrotnego zaprojektowanej do przewidywania i wpływania na zachowanie.

OpenAI wskazuje na ustawienia użytkownika jako zabezpieczenia: przełączniki prywatności, usuwanie danych i przeglądanie incognito. Ale są to powierzchowne kontrole. Gdy AI połączy kropki, usunięcie jednego kawałka danych nie wymazuje historii, którą już zbudowała. Atlas może zapomnieć o pojedynczych wpisach; wnioski jednak pozostają.

Ten model łączy dwa najpotężniejsze silniki gromadzenia danych w sieci — indeks wyszukiwania i przeglądarkę — i nakłada na nie AI zdolną do rozumowania na temat tego, co obserwuje.

Haczyk polega na tym, że jest to pomocne. Narzędzie, które organizuje listy zakupów, mapuje również zachowania finansowe. Narzędzie, które pomaga Ci szukać terapii, wnioskuje również o Twoim stanie emocjonalnym. To, co wygląda na personalizację, jest ekstrakcją danych z empatią jako maską.

Wcześniejszy kapitalizm inwigilacyjny polegał na apatii użytkowników: ludzie byli zbyt leniwi, by aktualizować swoje ustawienia prywatności. Atlas zależy od zaangażowania: Jest tak inteligentny i wygodny, że nie możesz mu nie zaufać.

Dlaczego Atlas nie jest gotowy na wrażliwe użycie

Atlas to odważny krok w kierunku przeglądania bez użycia rąk, ale nie został zbudowany dla zaufania. Te same wybory projektowe, które czynią go potężnym, czynią go również niebezpiecznym. Badacze bezpieczeństwa i testerzy doszli do spójnego wniosku na temat przeglądarek AI: są niezwykłymi demonstracjami, ale zawodnymi w codziennym życiu.

Jeśli próbujesz Atlasa, traktuj go jak środowisko testowe. Trzymaj bankowość, pracę i konta osobiste gdzie indziej. Nie zakładaj, że jego zabezpieczenia wytrzymają zagrożenia w świecie rzeczywistym.

OpenAI prawdopodobnie poprawi bezpieczeństwo Atlasa, ale dzisiaj korzystanie z przeglądarki AI oznacza przyznanie firmie bezpośredniego wglądu w Twoje zachowanie online i nadzieję, że ten dostęp pozostanie chroniony.

Ta obawa nie kończy się na samym OpenAI, ponieważ firma udostępnia Twoje dane partnerom i zewnętrznym dostawcom usług (third-party), rozszerzając krąg dostępu poza swoją bezpośrednią kontrolę. Na przykład naruszenie z udziałem partnera OpenAI ujawniło dane użytkowników API — przypomnienie, że gdy Twoje informacje wejdą do ekosystemu ChatGPT, każda dodatkowa strona staje się potencjalnym słabym ogniwem.

Użyj prywatnego asystenta AI, który zapewnia Ci bezpieczeństwo

Istnieje inne podejście i jest już wykorzystywane przez miliony ludzi.

Lumo, prywatny asystent AI(nowe okno) Protona, został zbudowany, aby udowodnić, że inteligencja i prywatność mogą współistnieć. Działa zgodnie ze ścisłą polityką braku przechowywania logów (no-logs policy). Historia czatu jest chroniona szyfrowaniem z zerowym dostępem, co oznacza, że nawet Proton nie może jej odczytać. Rozmowy nigdy nie są używane do treningu. Zarówno kod, jak i modele są otwarte (open source), co pozwala każdemu zweryfikować, co dzieje się pod maską. Użytkownicy są bezpośrednimi właścicielami swoich danych. A ponieważ Lumo jest finansowane przez społeczność, a nie reklamodawców, nie ma komercyjnej zachęty do wykorzystywania danych osobowych.

To różnica między AI inwigilacyjną a AI prywatności. Jedna jest zbudowana do zbierania danych; druga do ich ochrony.