Mężczyźni uwierzyli w to, co zobaczyli online: stronę internetową wypełnioną jawnymi obrazami wygenerowanymi przez AI z jej twarzą na ciele innej osoby, obok jej prawdziwego adresu domowego. Strona twierdziła, że jej dom to dom publiczny.

Sweet Anita, jedna z najbardziej rozpoznawalnych streamerek Twitcha, rozumiała ryzyko bycia kobietą online i podjęła środki ostrożności. Ukrywała swoje prawdziwe imię, stawiała granice i zatrudniła zespół. Nic z tego nie powstrzymało kogoś przed stworzeniem jej deepfake’a.

Nic nie przygotowało jej na to, co nastąpiło później.

Historia Sweet Anity

Anonimowy mężczyzna zamówił pornografię wygenerowaną przez AI z jej udziałem, a następnie stworzył fałszywą stronę internetową przedstawiającą ją jako pracownicę seksualną — i podał jej adres domowy. Cała ta intryga została zaprojektowana, aby zwabić mężczyzn do jej domu z fałszywym oczekiwaniem, że mogą zmusić ją do seksu. „Po tym, jak to zrobił, zaczęli przychodzić do mojego domu mężczyźni, zwłaszcza gdy prowadziłam transmisję na żywo i byłam poza domem” – powiedziała. „Nie czuję się bezpiecznie we własnym domu”.

Obcy z torbami podróżnymi próbowali się włamać. Bała się odbierać pocztę od listonosza. Musiała przestać otwierać drzwi i zostawiać dom bez opieki. Przeprowadzała się już wcześniej, ale oni ciągle ją znajdowali.

A nękanie nie ograniczało się do jej progu. Jej zmarła matka, dumna z pracy córki, sprawdzała media społecznościowe Anity i była zmuszona przewijać jawne obrazy wygenerowane przez AI. Znajomi i współpracownicy też je widzieli. „Mogłabym usunąć wszystko z YouTube, Twitcha, wszystkich moich mediów społecznościowych — a i tak pozostałoby mnóstwo obrazów mojej twarzy w filmach, które można by wykorzystać jako punkt odniesienia” – powiedziała.

Deepfake’i to nowe nękanie

Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.

Według badań Girlguiding(nowe okno) ponad jedna na cztery nastolatki twierdzi, że widziała jawny deepfake kogoś, kogo zna — koleżanki z klasy, nauczyciela, przyjaciela, a nawet siebie. CNN donosi(nowe okno), że 40% uczniów i 29% nauczycieli stwierdziło, że wiedziało o deepfake’u kogoś związanego z ich szkołą w ciągu ostatniego roku, a 15% uczniów stwierdziło, że widziało wersje jawne. Większość szkół nie ma zasad postępowania z tą formą nękania.

Szkody są poważne. Ofiary mogą cierpieć na lęki, depresję, a nawet PTSD. Mogą wycofywać się z życia towarzyskiego, tracić przyjaciół lub unikać ubiegania się o pracę czy studia, ponieważ jawne fałszywki mogą wypłynąć podczas wyszukiwania. Niektórzy są nawet zmuszeni wydawać pieniądze na próby usunięcia treści z internetu.

Światowe Forum Ekonomiczne zauważa(nowe okno), że chociaż deepfake’i nie zdestabilizowały wyborów, jak wielu się obawiało, stały się narzędziem nękania i oszustw. Pornografia bez zgody jest najbardziej ekstremalną formą, ale atakujący wykorzystują również sklonowane głosy i fałszywe rozmowy wideo do popełniania oszustw. W 2024 r. pracownik finansowy w Hongkongu został oszukany na 25 milionów dolarów po dołączeniu do rozmowy na Zoomie, w której każdy uczestnik — w tym dyrektor finansowy — był deepfake’iem(nowe okno).

„Przez resztę mojego życia nie widzę sposobu, w jaki mogłabym tego osobiście uniknąć” – powiedziała Anita. „I nie sądzę, żebym powinna być za to odpowiedzialna. To nie jest mój problem i to nie jest moja wina”.

To może spotkać każdego

Wystarczy garść zdjęć. Publiczny Instagram. Zdjęcie szkolne. Udostępniony album. Gdy twarz trafi do sieci, może zostać skopiowana, pobrana i niewłaściwie wykorzystana.

Według profesora Carstena Maple’a z Cyber Security Centre Uniwersytetu w Warwick, przy dzisiejszych narzędziach AI wystarczy zaledwie 20 zdjęć, aby stworzyć realistyczny profil danej osoby, a nawet 30-sekundowe wideo, co rozszerza zakres potencjalnych zagrożeń — fakt, o którym nie wiedziało 53% niedawno ankietowanych rodziców.

The New York Times donosił o wzroście popularności tak zwanych „aplikacji rozbierających”(nowe okno), które mogą usuwać ubrania ze zdjęć przy użyciu AI. Te aplikacje są tanie, łatwe w użyciu i szeroko dostępne. Śledczy szacują, że branża ta przynosi około 36 milionów dolarów rocznie. Mimo nowego prawa w USA uznającego publikowanie nielegalnych fałszywych aktów bez zgody za przestępstwo, same aplikacje pozostają legalne. „Każde dziecko z dostępem do internetu może być zarówno ofiarą, jak i sprawcą” – powiedział New York Times Alexios Mantzarlis, którego zespół zbadał 85 takich stron.

Prywatne konta nie są gwarancją bezpieczeństwa. Oprawcami są często osoby, które ofiara zna. Nawet pozornie nieszkodliwe posty, takie jak z przyjęć urodzinowych, mogą ujawniać szczegóły napędzające kradzież tożsamości, która dotknęła szacunkowo 1,1 miliona dzieci w 2024 roku.

„Ludzie, którzy [tworzą deepfake’i], często zapominają, że to przerażające, że to niestosowne — jakby, gdyby ich współpracownicy i przyjaciele wiedzieli, zostaliby zwolnieni i wykluczeni. Straciliby wszystkich, których znają, ich rodzice byliby nimi rozczarowani, prawda?” – powiedziała. „Ale kiedy jesteś online i tworzysz ten materiał dla siebie nawzajem z grupą podobnie myślących typów, to dla nich tylko hobby i rozrywka. Mogą całkowicie pominąć, zapomnieć i łudzić się co do wpływu, jaki to ma na życie ludzi”.

Ryzyko deepfake’ów wykracza daleko poza media społecznościowe

Dziś największe ryzyko może wynikać z tego, co jest udostępniane w mediach społecznościowych. Ale co ze wszystkimi zdjęciami, których w ogóle nie udostępniasz?

Google, Apple, Amazon, Meta i inni oferują przestrzeń dyskową w chmurze na Twoje zdjęcia, czasem bezpłatnie. Ale ta wygoda wciąż ma swoją cenę. Google wykorzystuje Twoje zdjęcia do szkolenia AI co najmniej od 2015 r., kiedy to zostało zmuszone do przeprosin za sklasyfikowanie czarnoskórej pary jako „goryli”(nowe okno). Od tego czasu wszyscy główni dostawcy przestrzeni dyskowej znacznie poprawili rozpoznawanie twarzy. Jak myślisz, jak to się stało? Więcej zdjęć, nieustannie karmiących AI.

Miliardy zdjęć i filmów przechowywanych przez Big Tech to ogromny zbiór materiałów, które pewnego dnia mogą stać się pożywką do generowania niesamowicie szczegółowych i realistycznych deepfake’ów.

Wystarczy cicha zmiana w Regulaminie.

Chroń swoje wspomnienia tak jak hasła

Nie możesz kontrolować tego, co inni robią z Twoim wizerunkiem. Ale możesz kontrolować, gdzie „żyją” Twoje zdjęcia i kto ma do nich dostęp. Proton Drive daje Ci prywatny, zaszyfrowany sposób na przechowywanie zdjęć i plików, które są najważniejsze.

  • Szyfrowanie end-to-end: Twoje pliki są szyfrowane, zanim w ogóle opuszczą Twoje urządzenie. W przeciwieństwie do Big Tech, nawet Proton nie może ich zobaczyć.
  • Prywatny jako domyślny: Twoje dane nigdy nie są sprzedawane, udostępniane ani wykorzystywane do szkolenia AI.
  • Bezpieczne udostępnianie: Dodawaj hasła, ustawiaj daty wygaśnięcia lub unieważnij dostęp w dowolnym momencie.
  • Automatyczna kopia zapasowa: Nawet jeśli Twój telefon zostanie zgubiony lub skradziony, Twoje wspomnienia pozostaną bezpieczne.

Dzięki Proton Drive Twoje dane pozostają Twoje — zawsze.