Wraz ze wzrostem wykorzystania sztucznej inteligencji, asystenci AI(nowe okno) stają się zaufanymi towarzyszami. Miliony ludzi zwracają się do chatbotów takich jak ChatGPT, Claude, Gemini, DeepSeek i innych, aby zadawać pytania i rozwiązywać problemy. Ich zapytania mogą być głęboko wrażliwe, pytając o problemy zdrowotne, udostępniając dane klientów lub szukając wsparcia emocjonalnego i inspiracji twórczej.

Dla wielu te chatboty wydają się ludzkie, responsywne i poufne. Ale ostatnie wydarzenia (nakaz sądowy zmusił OpenAI do zachowania danych wyjściowych ChatGPT(nowe okno) na czas nieokreślony, a Sam Altman, założyciel OpenAI, mówi, że ChatGPT nie oferuje „poufności prawnej”(nowe okno)) rzucają światło na ryzyko, że każde słowo, które wpisujesz, może być logowane, przechowywane, analizowane i potencjalnie niewłaściwie wykorzystane lub może wyciec do stron trzecich.

Oto co to może oznaczać i dlaczego powinno to nas wszystkich niepokoić.

Stawka jest wyższa z AI

Wzrost popularności asystentów AI wydaje się nową granicą, ale pod wieloma względami byliśmy już tutaj wcześniej. Obawy dotyczące logów czatów AI przypominają te, które pojawiły się w początkach wyszukiwarek, z których wiele okazało się uzasadnionych. Logi wyszukiwania były wykorzystywane do tworzenia dochodowych profili targetowania reklam, zostały ujawnione w naruszeniach danych i były przedmiotem wezwań sądowych.

Z AI stawka jest wyższa, ponieważ dane są bardziej osobiste i szczegółowe. Coraz więcej osób odwraca się od wyszukiwarek na rzecz chatbotów AI, aby uzyskać odpowiedzi, a prognozy mówią, że użycie wyszukiwarek spadnie o 25% do 2026 roku(nowe okno). W przeciwieństwie do paska wyszukiwania, który zazwyczaj przechwytuje krótkie, fragmentaryczne zapytania, pytania do chatbotów są formułowane tak, jakby pytający rozmawiali z inną osobą, ujawniając w ten sposób znacznie więcej o sobie. Pojedyncza rozmowa może zawierać osobiste przemyślenia(nowe okno), zmagania emocjonalne, problemy zdrowotne(nowe okno), obawy finansowe, a nawet pełne imiona i nazwiska oraz adresy.

Krótko mówiąc, logi czatów oferują niezwykle bogatą i intymną mapę Twojej tożsamości, bardziej niż logi wyszukiwarek — i ze znacznie większymi konsekwencjami dla Twojej prywatności. Big Tech może uzyskać dostęp do Twoich logów czatów i wykorzystać je do zbudowania profilu psychologicznego na Twój temat, który może zostać ujawniony rządowi lub wykorzystany do reklamy celowanej. Na przykład Meta wykorzystuje dane czatów AI do tworzenia spersonalizowanych reklam.

Twoje „anonimowe” czaty nie zawsze takie pozostaną

Powszechnym argumentem przeciwko martwieniu się o prywatność logów czatów jest to, że ogromna ilość danych sprawia, że indywidualne wykorzystanie jest mało prawdopodobne, zwłaszcza gdy użytkownicy nie są zalogowani. Ale niedawna historia opowiada inną historię.

W lipcu reporterzy odkryli, że ponad 100 000 rozmów w ChatGPT(nowe okno) zostało zindeksowanych przez Google i stało się możliwymi do wyszukania. Użytkownicy klikający przycisk „udostępnij”, aby wysłać rozmowę znajomym lub współpracownikom, prawie na pewno nie zdawali sobie sprawy, że ich prywatne rozmowy będą widoczne dla wszystkich w internecie.

Ten przykład jest ostrzeżeniem: Tak zwane „anonimowe” dane rzadko są anonimowe. W połączeniu z adresami IP, znacznikami czasu, odciskami klucza urządzenia oraz identyfikatorami sesji i plików cookies, te logi stają się znacznie bardziej możliwe do zidentyfikowania.

Jak czaty mogą ujawnić nasze życie wewnętrzne

Popularne platformy AI ChatGPT(nowe okno), Gemini(nowe okno) i DeepSeek(nowe okno) twierdzą, że logi czatów użytkowników są wykorzystywane do poprawy wydajności modeli i nie są używane do „sprzedaży” Twoich danych w celach reklamowych lub profilowania użytkownika. Ale zasady mogą zmienić się z dnia na dzień, co pokazuje batalia prawna OpenAI.

Na przykład Anthropic zaktualizowało swoją Politykę prywatności(nowe okno) bez ostrzeżenia w sierpniu 2025 r., aby wydłużyć okres przechowywania danych. Ponieważ logi są przechowywane bezterminowo, dane osobowe, które kiedyś wydawały się niedostępne, mogą nagle stać się lukratywnym źródłem zysków.

To nie byłby pierwszy taki przypadek. Kiedy Google wystartowało w 1998 roku, współzałożyciele Sergey Brin i Larry Page ostrzegali(nowe okno), że wyszukiwarki oparte na reklamach nieuchronnie będą „z natury stronnicze na korzyść reklamodawców i z dala od potrzeb konsumentów”. Dekadę później Google zaczęło wykorzystywać historię wyszukiwania do kierowania reklam do Ciebie(nowe okno).

Dzięki bezpośredniemu dostępowi do życia wewnętrznego ludzi, logi AI mogą przesuwać granice targetowania reklam. Wraz z rosnącą liczbą użytkowników zwracających się do chatbotów po wsparcie emocjonalne(nowe okno), ktoś może się zwierzyć:

  • „Ostatnio czuję się przytłoczony i samotny”.
  • „Czy myślisz, że mam depresję?”.
  • „Co mogę zrobić, jeśli nie będę mógł zapłacić czynszu w przyszłym miesiącu?”.

Te stwierdzenia to nie tylko słowa kluczowe czy zbiór interakcji, to wyraźne sygnały emocjonalne i sytuacyjne. Jeśli zostaną one przechowywane i przeanalizowane, mogą zostać wykorzystane do budowania profili psychologicznych i manipulowania decyzjami użytkowników.

Sugerowanie, że tak intymne, wrażliwe informacje mogą zostać wykorzystane do celów wyzysku, nie jest sianiem paniki – ponieważ firmy Big Tech właśnie to zrobiły. W 2017 r. Facebook udowodnił, że żadna interakcja nie jest wykluczona, badając sposoby na docieranie do emocjonalnie wrażliwych nastolatków(nowe okno) z reklamami w momentach braku pewności siebie.

Logi chatbotów są oknem do Twojej psychiki. A ten poziom dostępu budzi poważne obawy dotyczące prywatności i etyki w sektorze, który nie ma jeszcze jasnych wytycznych i regulacji dotyczących wykorzystania i zastosowania danych.

Zagrożenia prawne dla użytkowników

Historia wyszukiwania od dawna odgrywa rolę w dochodzeniach karnych i sprawach sądowych. Istnieje wiele przypadków, w których zapytania online przyczyniły się do wyroków skazujących, w szczególności w sprawie Moira Akers przeciwko stanowi w USA.

Po urodzeniu martwego dziecka w 2018 r. Akers została oskarżona o morderstwo, a w 2022 r. skazana na 30 lat więzienia. Kluczową częścią sprawy prokuratora były wyszukiwania internetowe Akers dotyczące aborcji, przeprowadzone we wczesnym stadium ciąży. Według prokuratury te wyszukiwania służyły jako dowód zamiaru Akers — pomimo faktu, że donosiła ciążę do samego końca. Sąd Najwyższy stanu Maryland uchylił jej wyrok w 2025 r., uznając dowody z zapytań wyszukiwania za niedopuszczalne(nowe okno). Ale Akers spędziła już prawie trzy lata w więzieniu. Sprawa ta pokazuje, jak przechowywane logi mogą zostać wykorzystane do stworzenia historii pasującej do niekorzystnej narracji, nawet jeśli istnieją dowody, które jej zaprzeczają.

Stawka może być jeszcze wyższa w przypadku przechowywanych czatów AI, które mogą podlegać dowodom prawnym. W przeciwieństwie do zapytań w wyszukiwarce, te interakcje są bardziej konwersacyjne, a nawet spekulacyjne, czasem jako sposób na wywołanie określonego typu odpowiedzi od LLM, czyli dużego modelu językowego. Prywatna, niewinna wymiana zdań z AI może zostać później zinterpretowana jako obciążająca w kontekście prawnym, niezależnie od intencji w danym momencie.

Potężne narzędzie manipulacji

Ci, którzy widzą logi chatbota, mogą uzyskać dostęp do szczegółowych planów behawioralnych: osobistych nawyków, wyzwalaczy emocjonalnych, dynamiki relacji, a nawet słabych punktów zawodowych. W niepowołanych rękach te dane są potężnym narzędziem inżynierii społecznej, która jest powszechną taktyką hakerską obejmującą manipulację psychologiczną.

Ryzyko to nie jest bynajmniej hipotetyczne. W styczniu 2025 r. platforma AI DeepSeek pozostawiła ogromną bazę danych odsłoniętą online(nowe okno). Wyciek obejmował ponad milion logów czatów AI i kluczy API, wszystkie publicznie dostępne dla każdego, kto wiedział, gdzie szukać. Wśród ujawnionych danych znalazły się rozmowy w postaci zwykłego tekstu, które mogły zawierać dyskusje o rodzinie, finansach i poufnych projektach — informacje, które można łatwo wykorzystać do oszustw, szantażu lub kradzieży tożsamości.

Po wycieku dane te mogą zostać wykorzystane jako broń, aby podszyć się pod Ciebie lub Tobą manipulować. Odwołując się do osobistych szczegółów zaczerpniętych z przeszłych wątków, atakujący mogą zdobyć Twoje zaufanie i wykorzystać je do stworzenia poważnych luk w zabezpieczeniach finansowych lub bezpieczeństwa.

Widmo inwigilacji politycznej

W reżimach autorytarnych konsekwencje przechowywanych interakcji cyfrowych mogą być znacznie poważniejsze. Na przykład kilka krajów zakazało korzystania z chińskiej platformy AI DeepSeek na urządzeniach rządowych(nowe okno) ze względu na obawy o bezpieczeństwo dotyczące sposobu, w jaki operator obchodzi się z danymi osobowymi użytkowników. Korea Południowa, Australia i Tajwan wyraziły obawy, że dane te mogą być dostępne dla chińskich władz i potencjalnie wykorzystywane do inwigilacji.

Dla dysydentów, aktywistów czy dziennikarzy to nie tylko kwestia prywatności, to kwestia bezpieczeństwa. Pozornie swobodna rozmowa o prawach do protestu, prawie mediowym czy drogach azylu może zostać zinterpretowana jako obciążający dowód w jurysdykcjach o ograniczonej ochronie wolności słowa i swobód obywatelskich.

Zagrożenie dla własności intelektualnej

W 2023 r. inżynierowie Samsunga nieumyślnie przesłali własnościowy kod źródłowy(nowe okno) do ChatGPT podczas próby rozwiązania problemu, błędnie wierząc, że ich zapytania są prywatne. Po przesłaniu dane te stały się częścią systemu szkoleniowego OpenAI, wywołując obawy o bezpieczeństwo i własność intelektualności udostępnianej narzędziom AI.

Powiązany problem pojawił się w głośnej sprawie o prawa autorskie wytoczonej przez The New York Times przeciwko OpenAI(nowe okno) wspomnianej na początku tego artykułu. Sprawa doprowadziła do nakazu sądowego wymagającego od OpenAI zachowania wszystkich danych wyjściowych ChatGPT na czas nieokreślony po zarzutach, że firma wykorzystała miliony artykułów gazety do szkolenia swoich modeli bez pozwolenia. Choć sprawa koncentruje się na robotach indeksujących OpenAI pobierających treści informacyjne z sieci, rodzi szersze pytania dla twórców — pisarzy, projektantów, muzyków i innych — którzy wnoszą oryginalne prace do platform AI.

Jeśli treści przesłane przez użytkownika są przechowywane i ponownie wykorzystywane przez model, istnieje realne ryzyko, że materiały zastrzeżone lub kreatywne mogą zostać redystrybuowane do innych użytkowników bez podania autora lub zgody. Zamazuje to granicę między wkładem użytkownika a danymi szkoleniowymi AI i rodzi pilne pytania o autorstwo i własność w erze generatywnej AI.

Co musi się zmienić i jak się chronić

Większość ludzi chce i oczekuje prywatności w swoim prawdziwym życiu. Wierzymy, że te same oczekiwania powinny dotyczyć cyfrowego życia ludzi. Stworzyliśmy pakiet szyfrowanych usług, które sprawiają, że prywatność online jest dostępna dla każdego, niezależnie od tego, czy wysyłasz wiadomości do znajomych, streamujesz ulubione programy(nowe okno), czy tworzysz kopie zapasowe zdjęć. Nie jest za późno, aby naprawić wczesne błędy internetu, a biorąc pod uwagę wczesne dni AI, wciąż jest czas, aby wyznaczyć nowy kurs dla tej technologii, która szanuje Twoją prywatność.

Zbudowaliśmy naszego asystenta AI(nowe okno) Lumo w taki sposób, aby z założenia przestrzegał kluczowych zabezpieczeń:

  • Brak logowania danych: Użytkownicy powinni móc korzystać z chatbotów bez obaw, że ich zgłoszenia będą przechowywane, wykorzystywane dla zysku lub użyte przeciwko nim. 
  • Brak szkolenia modelu: Prywatne czaty nigdy nie powinny być wykorzystywane jako dane szkoleniowe, ponieważ niesie to ryzyko ich późniejszego pojawienia się w wynikach modelu.
  • Przejrzystość w przetwarzaniu danych: Powinno być jasne, w jaki sposób wykorzystywane są przechowywane dane użytkownika, kto może uzyskać do nich dostęp, gdzie są przechowywane, jak długo są przechowywane i jak można je usunąć.
  • Szyfrowanie z zerowym dostępem jako domyślne: Wątki powinny być zabezpieczone przy użyciu kluczy szyfrowania użytkownika, aby nawet dostawca AI nie mógł uzyskać do nich dostępu.

Choć zagrożenia ze strony chatbotów, które po cichu logują nasze dane, są realne i palące, nie jesteśmy bezsilni. Wybierając narzędzia AI stawiające na prywatność i domagając się przejrzystości oraz odpowiedzialności od ich twórców, możemy przesunąć równowagę sił z powrotem w ręce użytkowników, potwierdzając przekonanie, że prywatność jest prawem, a nie przywilejem.