Administracja USA finalizuje ustawę National Defense Authorization Act (NDAA) na 2026 rok, która musi zostać przyjęta do końca tego roku. Jeden z przepisów ustawy nałożyłby 10-letnie moratorium(nowe okno) na regulacje AI na poziomie stanowym. Skutecznie powstrzymałoby to zdolność każdego stanu do kontrolowania sposobu, w jaki narzędzia AI zbierają dane lub generują odpowiedzi dla swoich mieszkańców.

To samo moratorium zostało odrzucone w lipcu 2025 roku(nowe okno) w ramach ustawy One Big Beautiful Bill Act. Ale tym razem administracja jest gotowa z planem zapasowym: Jeśli moratorium nie przejdzie w ramach NDAA, administracja Trumpa ma już przygotowany szkic rozporządzenia wykonawczego, które spróbowałoby zmusić stany do porzucenia wszelkich własnych regulacji AI.

W Proton wierzymy, że regulacja jest skutecznym narzędziem ochrony ludzi, a standard federalny jest właściwą drogą. W silnie podzielonym klimacie politycznym jedna ustawa federalna usprawniłaby regulacje AI, zapobiegając fragmentarycznym zabezpieczeniom w poszczególnych stanach i czyniąc zasady znacznie bardziej jasnymi. Ale usuwanie praw stanowych przed zaproponowaniem jakiejkolwiek alternatywy federalnej byłoby gorsze. Big Tech mógłby działać bez barier, narażając bezpieczeństwo i prywatność wszystkich na ryzyko.

Plan administracji dotyczący przyspieszenia AI

W ramach swojego Planu Działania AI(nowe okno), administracja przedstawiła plan przyspieszenia innowacji w zakresie AI, budowy amerykańskiej infrastruktury AI oraz przewodzenia w międzynarodowej dyplomacji i bezpieczeństwie AI.

Aby popchnąć ten program do przodu, rząd federalny zasygnalizował, że jest zdeterminowany, aby zapobiec regulacjom na poziomie stanowym. Dodanie moratorium do NDAA jest sprytnym sposobem na przeforsowanie moratorium przez Kongres, ponieważ ustawa o wydatkach na obronę musi zostać przyjęta. Jeśli jednak nie trafi ono do ostatecznej ustawy budżetowej, prezydent Trump przygotował rozporządzenie wykonawcze(nowe okno) jako plan B.

Szkic przewiduje, że:

  • Amerykańskie firmy AI muszą mieć swobodę wprowadzania innowacji bez regulacji, co oznacza, że legislatury stanowe nie mogą tworzyć mozaiki regulacyjnej, która utrudniałaby rozwój AI.
  • W ciągu 30 dni od daty wydania rozporządzenia prokurator generalny utworzy grupę zadaniową ds. sporów sądowych dotyczących AI, której jedynym celem będzie kwestionowanie stanowych przepisów dotyczących AI.
  • W ciągu 90 dni od daty wydania rozporządzenia sekretarz handlu opublikuje ocenę istniejących przepisów stanowych, które „wymagają od modeli zmiany ich zgodnych z prawdą wyników lub […] zmuszają twórców lub wdrożeniowców AI do ujawniania lub zgłaszania informacji w sposób, który naruszałby Pierwszą Poprawkę lub jakikolwiek inny przepis Konstytucji”.
  • W ciągu 90 dni od daty wydania rozporządzenia sekretarz handlu wyda powiadomienie o zasadach określające warunki, na jakich stany mogą kwalifikować się do pozostałego finansowania w ramach programu Broadband Equity Access and Deployment (BEAD).
  • Wszelkie stany z przepisami dotyczącymi AI, które są sprzeczne z oceną wymienioną powyżej, zostaną poddane ocenie pod kątem uznaniowych programów dotacji i funduszy niewdrożeniowych.

Rozporządzenie wykonawcze i Plan Działania AI sugerują jasny program dla administracji: Aby uwolnić amerykańską dominację w branży AI, USA powinny uregulować AI za pomocą jednego prawa federalnego. Biorąc jednak pod uwagę zachętę rządu do pomocy firmom AI w wyprzedzeniu konkurencji — oraz niezdolność Kongresu do uzgodnienia prawie czegokolwiek — dążenie do jednej regulacji może stać się równoznaczne z brakiem jakiejkolwiek regulacji.

Potrzebujemy branży AI, która nie boi się być regulowana

W krótkim czasie, odkąd pojawiły się narzędzia AI, wyraźnie zmieniły one naszą rzeczywistość. Są częścią naszych dni roboczych i życia osobistego, pomagając nam pisać e-maile, wyrażać pomysły, badać tematy, które nas interesują, i tworzyć plany. Sam ChatGPT osiągnął ponad 100 milionów użytkowników(nowe okno) w pierwszych kilku miesiącach.

Po zamieszaniu wywołanym przez DeepSeek, przyspieszenie rozwoju w sektorze AI stało się poważnym problemem dla branży i rządu. Sam Altman, dyrektor generalny OpenAI, ostrzegł przed regulacjami(nowe okno), które mogłyby spowolnić USA w wyścigu zbrojeń AI z Chinami.

Amerykańskie firmy, podobnie jak inne firmy na całym świecie, mają prawo do wprowadzania innowacji w swoich sektorach i dążenia do prześcignięcia konkurencji. Ale nie mają prawa do braku regulacji. Wzmacnianie globalnej dominacji Ameryki w dziedzinie AI i zapewnienie, że sektor AI pozostanie niewystarczająco uregulowany, nie leży w interesie ludzi.

Big Tech pokazało nam wielokrotnie, że lekceważenie regulacji dotyczących danych i sprzedaż danych osobowych to dla nich najszybsza droga do zysku. Podejście do AI nastawione na zysk oznacza, że firmy będą przedkładać zysk lub przewagę geopolityczną nad interesy ludzi korzystających z ich narzędzi. W ostatnich latach widzieliśmy koszty niewystarczających regulacji:

Bez odpowiednich regulacji firmy AI będą miały swobodę realizacji celów, które uznają za konieczne dla wzrostu. Jak widzieliśmy, te innowacje prawdopodobnie odbędą się kosztem ludzi korzystających z ich narzędzi.

Wybierz prywatne narzędzia AI

Gdy to rozporządzenie wykonawcze wejdzie w życie, konsumenci staną się bardziej podatni na złe praktyki w przestrzeni AI. Bez odpowiednich zabezpieczeń narzędzia AI stają się cyfrowym aparatem inwigilacji. Mogą ujawniać informacje(nowe okno) o naszym życiu osobistym, ujawniać wrażliwe dokumenty biznesowe(nowe okno) i zachęcać nas do polegania na nich emocjonalnie(nowe okno). Jeśli amerykańskie narzędzia AI pozostaną skutecznie nieuregulowane, istnieje duże ryzyko, że staną się niebezpieczne zarówno dla obywateli, jak i firm.

W przypadku braku wystarczających regulacji rządowych najlepszą opcją, jaką mamy dla własnego bezpieczeństwa i zachęcania do bezpieczniejszych praktyk w branży, są nasze wybory technologiczne. Musimy priorytetowo traktować narzędzia AI, które służą przede wszystkim ludziom i które nie przechowują logów rozmów ani nie trenują swoich modeli na rozmowach użytkowników. Nawet jeśli Big Tech nie jest wystarczająco uregulowany, istnieją bezpieczne alternatywy dla ich narzędzi.

Gdy nasza społeczność wyraziła zainteresowanie prywatnymi alternatywami AI, nasi inżynierowie zaczęli badać technologię, aby to umożliwić. W lipcu tego roku wprowadziliśmy Lumo(nowe okno), asystenta AI zaprojektowanego, aby pomóc każdemu na całym świecie uwolnić się od narzędzi skoncentrowanych na USA. Zamiast ukrywać się przed regulacjami i kontrolą, opublikowaliśmy nasz model bezpieczeństwa i kod źródłowy, aby każdy mógł zweryfikować działanie Lumo. Nie przechowuje on żadnych logów rozmów, co pozwala Ci ufać, że rozmawiasz poufnie. Szyfrowanie zero-access chroni każdą rozmowę i zapewnia, że reklamodawcy i rządy nie mogą uzyskać do nich dostępu. Historie czatów mogą zostać usunięte w dowolnym momencie, ponieważ stosujemy zasady GDPR wobec wszystkich naszych użytkowników, zarówno w UE, jak i poza nią, jako odpowiedzialną praktykę dotyczącą danych.

Zamiast lekceważyć regulacje, Proton aktywnie opowiada się(nowe okno) za rygorystycznymi przepisami dotyczącymi prywatności i przeciwko inwigilacji zarówno online, jak i offline. Naszym celem zawsze było stworzenie internetu, w którym prywatność jest na pierwszym miejscu — oznacza to tworzenie alternatyw dla narzędzi Big Tech, takich jak AI, i pomaganie w zmniejszaniu zależności rynku europejskiego od amerykańskich technologii. Zawsze będziemy stawiać ludzi ponad zyskami.