Powszechnym błędnym przekonaniem jest to, że jeśli nie korzystasz z dużych modeli językowych (LLM), takich jak ChatGPT do czatowania, Midjourney do generowania obrazów czy Sora do generowania filmów, jesteś bezpieczny przed sztuczną inteligencją (AI). Niezależnie od tego, czy z niej korzystasz, czy nie, AI już dotyka Twojego życia.
Na przykład, gdy robisz zdjęcia na Androidzie, Zdjęcia Google automatycznie skanują i oznaczają każdą osobę w Twojej bibliotece zdjęć za pomocą rozpoznawania twarzy. Publikowanie w mediach społecznościowych bez zmiany domyślnych ustawień tworzy publiczne posty, które mogą zostać zeskrobane do ogromnych zbiorów danych wykorzystywanych do trenowania LLM. Nawet spersonalizowane reklamy na stronach internetowych lub w aplikacjach są zasilane przez AI trenowaną na Twoich preferencjach przeglądania i zakupów.
Ta wygoda kosztuje Cię prywatność i może mieć głęboki wpływ na Twoje życie. Dwadzieścia zdjęć pobranych z mediów społecznościowych Twojego dziecka wystarczy, aby stworzyć 30-sekundowy film deepfake, który może zostać wykorzystany do szantażu, nękania lub kradzieży tożsamości.
Oto, co jest stawką, gdy AI ma dostęp do Twoich danych osobowych i co możesz zrobić, aby chronić swoją prywatność online.
- W jaki sposób AI zagraża Twojej prywatności?
- Twoje dane osobowe mogą być gromadzone
- Możesz zostać ponownie zidentyfikowany
- Twoje dane mogą być udostępniane stronom trzecim
- Żądania usunięcia danych mogą nie zadziałać
- Inni ludzie mogą zobaczyć Twoje prywatne czaty
- Możesz zostać niesprawiedliwie potraktowany
- Targetowanie reklam staje się coraz bardziej precyzyjne
- Przestrzeń dyskowa w chmurze może ujawnić Twoje dane
- AI może popełniać błędy
- Każdy może tworzyć deepfake’i
- Jak chronić swoje dane przed systemami AI
W jaki sposób AI zagraża Twojej prywatności?
AI może niszczyć prywatność, zbierając zbyt wiele, wnioskując zbyt wiele i udostępniając zbyt wiele.
Twoje dane osobowe mogą być gromadzone
Systemy AI stają się dokładniejsze, trenując na ogromnych ilościach danych, często pobieranych z publicznie dostępnych źródeł, takich jak Twoje posty na Facebooku(nowe okno), zdjęcia na Flickrze(nowe okno) lub wątki na Reddicie(nowe okno). Codzienne posty w mediach społecznościowych, zdjęcia rodzinne i szczegóły profilu — często zawierające wrażliwe informacje i pierwotnie udostępnione z powodów osobistych lub społecznych — zostały włączone do zbiorów danych używanych do trenowania wartych miliardy dolarów LLM-ów i systemów rozpoznawania twarzy. Dzieje się tak, ponieważ Big Tech traktuje treści online jako swobodnie dostępne dla AI, bez wyraźnej zgody czy poszanowania własności intelektualnej.
Możesz zostać ponownie zidentyfikowany
Firmy technologiczne twierdzą, że Twoich danych osobowych nie da się powiązać z Tobą, gdy zostaną pozbawione cech identyfikacyjnych lub spseudonimizowane, co oznacza, że oczywiste identyfikatory, takie jak nazwiska czy numery telefonów, są usuwane. Jednak ta ochrona jest krucha, ponieważ zanonimizowane zbiory danych mogą zostać ponownie zidentyfikowane poprzez porównanie ich z innymi źródłami danych, takimi jak profile w mediach społecznościowych czy ślady geolokalizacyjne.
Na przykład użytkownicy Netflixa zostali ponownie zidentyfikowani(nowe okno) poprzez porównanie ich anonimowych ocen filmów z informacjami z IMDb. Jedno z badań(nowe okno) pokazuje, że prawie każdy Amerykanin może zostać wyodrębniony z dowolnego zbioru danych za pomocą zaledwie 15 cech demograficznych. Dodając do tego moc dopasowywania wzorców przez AI, ponowna identyfikacja stała się szybsza, łatwiejsza i dostępna dla każdego.
Twoje dane mogą być udostępniane stronom trzecim
Kiedy korzystasz z systemów AI, Twoje dane nie zawsze pozostają w firmie, w której się zarejestrowałeś. Mogą być udostępniane partnerom lub zewnętrznym podmiotom przetwarzającym — o niektórych z nich prawdopodobnie nigdy nie słyszałeś — którzy mogą przetwarzać Twoje dane zgodnie z własnymi zasadami i standardami bezpieczeństwa.
W tym momencie prywatność staje się kwestią zaufania. Nie polegasz już tylko na firmie, którą znasz, aby chroniła Twoje informacje, ale na całym łańcuchu nieznanych podmiotów zewnętrznych, z których każdy ma własną infrastrukturę, zasady i luki. Każda ręka, która dotyka Twoich danych, poszerza powierzchnię ataku, a odpowiedzialność się zaciera.
Na przykład naruszenie z udziałem partnera OpenAI doprowadziło do ujawnienia danych użytkowników API, pokazując, jak dostęp stron trzecich może stać się najsłabszym ogniwem systemu.
Żądania usunięcia danych mogą nie zadziałać
Gdy Twoje dane posłużą do trenowania modelu AI, ich wycofanie jest prawie niemożliwe, ponieważ kształtują one ogólne zachowanie modelu. Machine unlearning — techniki sprawiające, że model zapomina — jest wciąż we wczesnym stadium, więc jedyną opcją byłoby obecnie ponowne wytrenowanie modelu. A nawet jeśli firma twierdzi, że spełniła Twoje żądanie usunięcia danych, praktycznie nie ma sposobu, aby to potwierdzić(nowe okno).
Inni ludzie mogą zobaczyć Twoje prywatne czaty
LLM-y takie jak ChatGPT(nowe okno), Meta AI(nowe okno) i Grok(nowe okno) ujawniły prywatne wątki poprzez swoje funkcje udostępniania, a czaty były indeksowane przez wyszukiwarki i stały się publicznie dostępne. Platformy nie były wystarczająco przejrzyste w kwestii tego ryzyka, pozostawiając użytkowników w nieświadomości, że to, co wydawało się prywatną wymianą zdań, mogło stać się widoczne dla każdego w internecie.
Możesz zostać niesprawiedliwie potraktowany
Jeśli dane używane przez systemy AI do uczenia się wzorców zawierają ukryte uprzedzenia — wynikające na przykład z historycznych nierówności lub niekompletnych zbiorów danych — AI może te wzorce wzmacniać. Stawka jest wyższa w przypadku nieprywatnych systemów AI od Big Tech, które mają zamknięty kod źródłowy i działają jak czarne skrzynki, których nie można niezależnie zweryfikować. Systemy te mogą wykorzystywać wrażliwe atrybuty, takie jak rasa, płeć czy kod pocztowy, do podejmowania zautomatyzowanych decyzji w zakresie przewidywania przestępczości(nowe okno), zatrudniania(nowe okno), opieki zdrowotnej(nowe okno) czy oceny zdolności kredytowej(nowe okno).
Targetowanie reklam staje się coraz bardziej precyzyjne
Podczas gdy nieprywatne AI czyni reklamy mądrzejszymi poprzez umożliwienie hiper-targetowania, często narusza prywatność całej Twojej rodziny. Na przykład Publicis, broker danych i największa na świecie firma reklamowa, twierdzi, że profiluje 2,3 miliarda ludzi i śledzi szczegóły, takie jak preferencje rodzinne i dochody(nowe okno), aby zdecydować, czy kierować do nich reklamy produktów budżetowych czy premium.
Wraz z chatbotami AI zastępującymi tradycyjne wyszukiwanie, reklamy podążają za nami w tę nową przestrzeń. Na przykład Perplexity osadza reklamy w odpowiedziach generowanych przez AI(nowe okno) i złożyło ofertę kupna Google Chrome za 34,5 miliarda dolarów — ruch mający na celu uzyskanie dostępu do ponad 3 miliardów użytkowników przeglądarki i intymnych danych behawioralnych, które się z tym wiążą.
Przestrzeń dyskowa w chmurze może ujawnić Twoje dane
Dostawcy przestrzeni dyskowej w chmurze bez szyfrowania end-to-end (E2EE) mogą mieć dostęp do przesyłanych przez Ciebie zdjęć, dokumentów i wrażliwych plików. Mogą również wykorzystywać te dane do zasilania narzędzi AI, generowania informacji o Tobie lub wyświetlania spersonalizowanych reklam.
Na przykład Dysk Google zachowuje dostęp do Twoich danych i wykorzystuje je w funkcjach AI, takich jak sprawdzanie pisowni i autouzupełnianie w Dokumentach Google. Jeśli Gemini, asystent AI od Google, pozostanie ściśle zintegrowany z Google Workspace, zapytania dotyczące Twoich plików na Dysku mogą również zasilać trening AI.
Podobnie Microsoft ogłosił, że Word, Excel i PowerPoint będą wkrótce domyślnie zapisywać automatycznie w usłudze OneDrive, kolejnej usłudze bez E2EE, gdzie przyszłe wykorzystanie Twoich danych do celów reklamowych lub trenowania AI pozostaje niepewne.
AI może popełniać błędy
Zautomatyzowane systemy mogą skanować Twoją prywatną komunikację i oznaczać ją jako podejrzaną. Proponowane przez UE prawo Chat Control wymagałoby od usług komunikacyjnych, takich jak WhatsApp i Signal, używania AI do skanowania każdej prywatnej wiadomości i zdjęcia w celu wykrycia materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM).
Ale oznacza to monitorowanie rozmów wszystkich, a nie tylko podejrzanych o przestępstwa. A historia pokazuje, jak łatwo AI może popełniać błędy. Na przykład konto Google pewnego ojca zostało zamknięte(nowe okno) i zgłoszone władzom po wysłaniu zdjęcia jego dziecka do lekarza. To, co powinno zostać między Tobą a Twoim lekarzem lub Tobą a Twoją rodziną, może nagle zostać ujawnione firmom technologicznym i organom ścigania.
Każdy może tworzyć deepfake’i
AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.
Przestępcy wykorzystują deepfake’i do kradzieży tożsamości, oszustw, szantażu lub niszczenia reputacji — a ryzyko dotyczy również dzieci. W 2019 roku przestępcy użyli audio deepfake, aby naśladować głos CEO(nowe okno) i oszukali pracownika, nakłaniając go do przelania 220 000 euro. Ryzyko dotyczy również dzieci. W jednym z incydentów przestępca stworzył obraz deepfake 14-latka(nowe okno), aby wymusić pieniądze, grożąc jego udostępnieniem.
Jak chronić swoje dane przed systemami AI
Istnieje wiele obaw dotyczących prywatności w systemach AI, zwłaszcza w nieprywatnych modelach o zamkniętym kodzie źródłowym prowadzonych przez Big Tech. I chociaż nie możesz całkowicie zapobiec pobieraniu lub niewłaściwemu wykorzystywaniu Twoich danych przez te systemy, gdy już się tam znajdą, możesz zmniejszyć swój ślad cyfrowy, żądać odpowiedzialności i wybierać AI stawiającą na prywatność, która nie wykorzystuje Twoich danych. Oto co możesz zrobić:
- W mediach społecznościowych ustaw swoje profile i posty jako prywatne, usuń stare materiały, usuń dane EXIF ze zdjęć przed ich udostępnieniem i unikaj udostępniania szczegółów umożliwiających identyfikację — takich jak adresy, pełne imiona dzieci czy szkoły, do których uczęszczają. Dowiedz się więcej o tym, jak zarządzać internetem dla swojej rodziny.
- Sprawdź ustawienia prywatności swoich aplikacji. Na przykład Meta AI może skanować zdjęcia z Twojej rolki aparatu i filmy w aplikacji Facebook na Androida i iOS.
- Chroń się przed deepfake’ami, zamazując lub zasłaniając twarze swojej rodziny przed opublikowaniem zdjęć online.
- Maskuj swój cyfrowy ślad, używając wirtualnej sieci prywatnej (VPN)(nowe okno), aby ukryć swój adres IP, i używaj aliasów, aby chronić swój adres e-mail podczas publikowania wrażliwych informacji, których nie chciałbyś powiązać ze sobą.
- Korzystaj z usług stawiających na prywatność, które nie zarabiają na Twoich danych, takich jak Signal do bezpiecznej komunikacji oraz Brave lub DuckDuckGo do trybu prywatnego.
- Do bezpiecznego przechowywania najbardziej wrażliwych plików, w tym prywatnych zdjęć i poufnych dokumentów, używaj Proton Drive jako przestrzeni dyskowej w chmurze zaszyfrowanej end-to-end. W przeciwieństwie do platform, które mogą ujawniać rzekomo prywatne treści, Drive nie skanuje, nie indeksuje ani nie wykorzystuje Twoich danych do trenowania AI — i nie mogą one być widoczne dla nikogo innego, nawet gdy zdecydujesz się je udostępnić. Utrzymywanie zdjęć w pełni prywatnymi oznacza również, że nie trafią one do sieci, gdzie mogłyby zostać wykorzystane do tworzenia deepfake’ów.
- Zrezygnuj z trenowania AI, kiedy tylko jest to możliwe, na przykład w Gemini, ChatGPT(nowe okno), Claude(nowe okno) lub Meta AI. Zasady mogą zmienić się z dnia na dzień z niewielkim ostrzeżeniem, więc jeśli chcesz korzyści zarówno z AI, jak i prywatności, przełącz się na Lumo — naszego asystenta AI stawiającego na prywatność(nowe okno), który nie prowadzi logów ani nie trenuje na Twoich danych.
Silniejsze regulacje dotyczące prywatności AI, takie jak unijny akt o sztucznej inteligencji (AI Act)(nowe okno), będą kluczowe, aby przywrócić władzę użytkownikom internetu. Do tego czasu najlepszą obroną jest bycie świadomym tego, co udostępniasz online, wymaganie odpowiedzialności od firm budujących te systemy i wybieranie przejrzystych narzędzi AI(nowe okno), które szanują prywatność od podstaw.



