Tempo zmian w internecie wydaje się przyspieszać. AI spotęgowała poczucie zawrotu głowy, a przełomy technologiczne trafiają na rynek tak szybko, jak firmy są w stanie je wyprodukować.
Ta zmienność sprawia, że przewidywanie trendów to trudne zajęcie. Ale jako firma zajmująca się technologią prywatności, przewidywanie trendów jest naszym zadaniem. Przez każdy z ostatnich kilku lat publikowaliśmy nasze najlepsze przypuszczenia co do tego, w jakim kierunku może zmierzać cyfrowy statek. Pomaga nam to rozwijać nowe produkty, które dają Ci kontrolę nad Twoimi danymi, i pomaga Tobie przygotować się na to, co może nadejść.
Jak sprawdziły się nasze przewidywania na 2025 rok
Na początku zeszłego roku przewidywaliśmy wzrost inwigilacji DIY, zalew informacji niskiej jakości, uzbrojoną AI, ograniczony nadzór regulacyjny i rosnącą adopcję technologii prywatności.
Przeczytaj nasze przewidywania na 2025 rok tutaj.
Trafiliśmy całkiem nieźle:
- Masowy nadzór uczynił każdego szpiegiem: Ta przepowiednia się sprawdziła, na przykład gdy haker white hat odkrył niezaszyfrowaną komunikację satelitarną(nowe okno) w październiku. Albo weźmy aplikację Waze, która jest masowym narzędziem inwigilacji obywatelskiej(nowe okno). Ale wielką historią roku były kamery Flock Safety, które zrobiły furorę w USA, gdzie tysiące miast zaczęły ich używać do monitorowania ulic. YouTuber pokazał, że mają luki w zabezpieczeniach(nowe okno), które każdy mógł wykorzystać, a dziesiątki kamer nadawały transmisję na żywo(nowe okno), którą każdy mógł oglądać i pobrać. Kiedy masowo produkujesz technologię inwigilacji, narażasz wszystkich na naruszenia danych.
- Złe informacje zalały internet: Znów mieliśmy rację. W rzeczywistości „slop” AI (chłam AI) został wybrany słowem roku 2025(nowe okno). Badania wykazały, że „workslop” generowany przez AI szkodzi produktywności firm(nowe okno). Vibe coding tworzy proliferację aplikacji, które nie działają(nowe okno). Artykuły naukowe wspomagane przez AI są przegadane, niskiej jakości — i ich liczba eksploduje(nowe okno). Przywrócenie ekosystemu informacyjnego będzie kluczowym wyzwaniem na nadchodzące lata.
- Ataki hakerskie zasilane AI: Przewidywaliśmy, że AI zostanie wykorzystana w niecnych celach w złośliwym oprogramowaniu. Przyspieszyło to szybciej, niż się spodziewaliśmy. Anthropic ogłosiło, że wykryło pierwszy w historii cyberatak zaplanowany i wykonany przez AI(nowe okno), prawdopodobnie przeprowadzony przez grupę sponsorowaną przez Chiny. Phishing-as-a-service, który wykorzystuje AI, osiągnął szczyt w czerwcu 2025 roku(nowe okno). Nic dziwnego, że rządy również bezpośrednio inwestują w narzędzia AI do cyberwojny. Wojsko USA inwestuje miliony w firmy(nowe okno) rozwijające taką broń.
- Regulacje zostały wstrzymane: Rządy świata były w zeszłym roku rozproszone przez wojny, spory handlowe i niestabilność gospodarczą. Ale były też chętne do zarządzania swoimi krajowymi przemysłami w sposób łagodny, świadome deregulacyjnego trendu w USA. W szczególności w kwestii AI, USA zrobiły dramatyczny krok w kierunku blokowania prawnych barier dla Big Tech, zakazując stanowych regulacji AI bez oferowania federalnej alternatywy. Jedynym wyjątkiem jest propozycja UE Chat Control, która zyskiwała, traciła i odzyskiwała impet na przestrzeni lat. Jednak to prawo regulowałoby technologię w złym kierunku, czyniąc aplikacje mniej bezpiecznymi i prywatnymi.
- Miliony więcej ludzi przyjęło technologie prywatności: Tę przepowiednię możemy zmierzyć bezpośrednio poprzez nasz wzrost liczby użytkowników, i rzeczywiście w zeszłym roku zyskiwaliśmy użytkowników w rosnącym tempie w porównaniu do 2024 roku. Tempo przechodzenia ludzi do ekosystemu Proton z ekosystemów Google, Apple i Microsoft wskazuje na większą świadomość ryzyka udostępniania danych osobowych platformom opartym na reklamach o słabej historii ochrony prywatności. Liczba rejestracji Proton VPN gwałtownie rosła przez cały rok, ilekroć aplikacja była blokowana(nowe okno) lub ISP cenzurował stronę internetową(nowe okno).
Nasze przewidywania na 2026 rok
Nadchodzący rok będzie kluczowy dla przyszłości internetu. Przyspieszenie AI i niepokoje polityczne zbiegają się, co może przynieść potencjalnie wybuchowe rezultaty.
UE będzie nadal dążyć do złamania szyfrowania
Podczas gdy rządy UE wydają się wycofywać z całkowitego zakazu szyfrowania, kontrowersyjna legislacja Chat Control jest teraz w końcowych fazach negocjacji. Po latach politycznego impasu, UE dąży teraz do ostatecznego porozumienia do czerwca 2026 roku. Niebezpieczne próby złamania szyfrowania za pomocą technologii zwanej skanowaniem po stronie klienta wydają się na razie nieaktualne, ale musimy zachować czujność i upewnić się, że nie powrócą.
Obecna debata koncentruje się na tak zwanym dobrowolnym skanowaniu, tymczasowej zasadzie, która ma wygasnąć w kwietniu 2026 roku, dającej platformom technologicznym prawo do skanowania prywatnych wiadomości w poszukiwaniu nielegalnych materiałów. Przewidujemy, że UE podejmie działania, aby uczynić ten dobrowolny system stałym, tworząc jednocześnie presję prawną, która sprawi, że skanowanie prywatnych wiadomości stanie się dla firm praktycznie nieuniknione.
Chociaż sytuacja wydaje się zmierzać w lepszym kierunku niż oczekiwano na froncie Chat Control, UE nie rezygnuje z prób znalezienia sposobów na złamanie szyfrowania. Opublikowana w zeszłym roku strategia ProtectEU(nowe okno) zawiera kilka niepokojących propozycji, takich jak stworzenie „Mapy drogowej technologii szyfrowania”, aby zbudować środki umożliwiające policji łamanie szyfrowania. UE planuje również opublikować w tym roku propozycję nowych zasad przechowywania danych.
Więcej przepisów dotyczących weryfikacji wieku
Chociaż są przedstawiane jako środki bezpieczeństwa, przepisy dotyczące weryfikacji wieku fundamentalnie zmieniają sposób, w jaki wszyscy uzyskują dostęp do internetu, rozszerzając cyfrowy nadzór i tworząc zagrożenia dla bezpieczeństwa danych.
W Wielkiej Brytanii ustawa o bezpieczeństwie online ustanowiła precedens 25 lipca 2025 roku. Od tego czasu strony internetowe hostujące treści dla dorosłych są prawnie zobowiązane do wdrożenia weryfikacji wieku, zmuszając użytkowników do udostępniania wrażliwych danych finansowych lub danych biometrycznych w celu uzyskania dostępu do dużych części sieci. Niektóre stany USA również przyjęły przepisy dotyczące weryfikacji wieku, a istnieje ustawa federalna(nowe okno), która może zrobić to samo dla sklepów z aplikacjami. Australia następnie wprowadziła krajowy zakaz mediów społecznościowych(nowe okno) dla dzieci poniżej 16 roku życia, wprowadzając kontrole tożsamości do większej liczby rodzajów treści. A teraz Francja rozważa(nowe okno) zrobienie tego samego.
Zajmując się rzeczywistymi problemami społecznymi, przepisy dotyczące weryfikacji wieku tworzą ryzyko bezpieczeństwa danych. Produktem ubocznym kontroli tożsamości są ogromne, usankcjonowane przez państwo bazy danych osobowych przechowywane przez firmy zewnętrzne, tworzące nowe cele dla hakerów i potencjał do nadużyć. W październiku 2025 roku Discord ujawnił właśnie taką bazę danych dokumentów tożsamości. Spodziewamy się, że w 2026 roku zostanie przyjętych więcej przepisów dotyczących weryfikacji wieku — i prawdopodobnie jeszcze więcej towarzyszących im naruszeń danych.
Więcej prób blokowania VPN w krajach demokratycznych
VPN-y od dawna są wrogiem tych, którzy chcą kontrolować narracje, i chociaż demokracje rzadko zakazują ich całkowicie, używają presji prawnej, aby utrudnić korzystanie z nich.
Wielka Brytania ponownie znajduje się w czołówce tego trendu. Nowa ustawa(nowe okno) będąca przedmiotem dyskusji może wkrótce zmusić dostawców VPN do wdrożenia weryfikacji wieku i zakazania dostępu nieletnim — po raz pierwszy w kraju demokratycznym.
Włochy uruchomiły w zeszłym roku swój system Piracy Shield(nowe okno), który rzekomo ma blokować nielegalne transmisje sportowe. Część nowego prawa wymaga od dostawców VPN i DNS przestrzegania nakazów blokowania w ciągu 30 minut. Nie ma kontroli sądowej przed wystąpieniem blokady, a system spowodował już znaczne szkody uboczne, przypadkowo wyłączając legalne usługi, takie jak Google Drive, dla milionów użytkowników.
Brazylia również dołączyła do tego trendu, nakładając ogromne codzienne kary na osoby używające VPN(nowe okno), aby uzyskać dostęp do zablokowanych platform mediów społecznościowych. Te miękkie blokady próbują zmienić dostawców prywatności w ramiona egzekucyjne państwa. Przewidujemy, że w 2026 roku więcej państw demokratycznych pójdzie w kierunku tych niewidzialnych zapór ogniowych, zmuszając użytkowników do wyboru między lokalnymi przepisami a ich prawem do podstawowej prywatności cyfrowej.
Agent AI popełni straszliwy błąd
AI jest tu, tam i wszędzie, a ludzie coraz częściej dają robotom pozwolenie na podejmowanie decyzji bez udziału człowieka. Na przykład Vertex AI Agent Builder Google(nowe okno) pozwala firmom tworzyć boty AI, które mogą łączyć się z wieloma systemami, automatyzować przepływy pracy i wykonywać zadania całkowicie samodzielnie.
Jednak w przeciwieństwie do tradycyjnego oprogramowania, AI nie podąża przewidywalnymi ścieżkami logicznymi. Programiści nazwali to Problemem Czarnej Skrzynki: Widzimy, co wchodzi i co wychodzi, ale nie zawsze wiemy dokładnie, jak i dlaczego AI podejmuje takie decyzje. A kiedy AI popełnia błąd, często trudno jest ustalić dlaczego, jak lub jakie dane wpłynęły na decyzję. Agenci już zbuntowali się na małą skalę, na przykład gdy jeden z nich przyznał się do popełnienia „katastrofalnego błędu w ocenie” i usunięcia całej bazy danych(nowe okno) bez pytania.
W miarę jak delegujemy więcej zadań operacyjnych systemom automatycznym, małe błędy będą kaskadowo przekształcać się w większe awarie. Ogromny publiczny przykład jest z pewnością nieuchronny. Ale czy będzie to krach finansowy, czy ogromne usunięcie danych, istnieje duża szansa, że nawet nie zrozumiemy, dlaczego to się stało.
Prawdziwym ryzykiem jest jednak stopniowa utrata ludzkiej kontroli. W miarę jak coraz więcej decyzji jest delegowanych do systemów, które nie mogą być w znaczący sposób audytowane, organizacje powoli tracą zdolność do zarządzania własnymi środowiskami cyfrowymi.
Rynki predykcyjne we wszystkim
Rynki predykcyjne to w zasadzie forma hazardu online, w której ludzie mogą obstawiać niemal wszystko. Firmy takie jak Polymarket i Kalshi pozwalają obstawiać wszystko, od sumy opadów śniegu po wyniki na Rotten Tomatoes czy to, czy kraje pójdą na wojnę.
Przewidujemy, że w 2026 roku rynki predykcyjne staną się problemem. Wtajemniczeni będą wykorzystywać swoją sekretną wiedzę o działaniach rządowych lub korporacyjnych, aby oszukiwać rynki (to już się zdarzyło(nowe okno)). Użytkownicy będą zaciągać długi, aby pokryć swoje straty, co potencjalnie doprowadzi do kryzysu zadłużenia konsumenckiego.
Rzadziej omawianym ryzykiem jest prywatność użytkowników: Aby uczestniczyć w rynkach, ludzie muszą połączyć swoje konta finansowe, portfele kryptowalutowe lub dokumenty tożsamości, tworząc bardzo specyficzny ślad danych. Każdy, kto obserwuje, będzie wiedział dokładnie, co Twoim zdaniem się wydarzy i ile jesteś skłonny na to postawić.
Ludzie i firmy porzucą platformy z USA
Od początku istnienia internetu amerykańskie platformy technologiczne w zasadzie były internetem, niezależnie od tego, gdzie mieszkasz na świecie. Spodziewamy się, że zacznie się to zmieniać w tym roku, ponieważ znacznie więcej osób, a zwłaszcza firm, odejdzie od platform będących powszechnie znanymi markami. Ryzyko bezpieczeństwa i suwerenności związane z przechowywaniem danych na amerykańskich serwerach gwałtownie wzrosło w krótkim czasie.
Dlaczego tak nagle? Chociaż istnieje od 2018 roku, ustawa US CLOUD Act jest jednym z ważnych powodów. Pozwala ona amerykańskim władzom żądać danych od każdej firmy z siedzibą w USA, niezależnie od tego, gdzie na świecie te dane są fizycznie przechowywane. Jest to bezpośrednie naruszenie lokalnych przepisów dotyczących prywatności, takich jak GDPR, ale jest to również problem, jeśli Twój kraj wejdzie w konflikt z USA. Twoje dane mogą stać się kartą przetargową.
Firmy zdają sobie sprawę, że jeśli ich dane są przechowywane u amerykańskiego dostawcy, nigdy tak naprawdę nie są pod ich kontrolą. Ludzie martwią się również, że ich dane zostaną wykorzystane jako surowiec do szkolenia modeli, jak wykazały nasze badania.
Wierzymy, że wszystko to przyspieszy przejście w kierunku suwerenności cyfrowej. W Proton już widzimy, jak się to zaczyna, ponieważ organizacje szukają zaszyfrowanych alternatyw, które chronią ich dane za pomocą szyfrowania end-to-end w politycznie neutralnej jurysdykcji.




