Systemy automatycznego odczytu tablic rejestracyjnych (ALPR) stały się rutynowym widokiem na drogach w Stanach Zjednoczonych. Mogą one pełnić cenne funkcje, w tym egzekwowanie zasad parkowania, weryfikację fotoradarów, identyfikację skradzionych pojazdów, reagowanie na alerty Amber i wiele innych.

Nowa generacja systemów kamer do odczytu tablic rejestracyjnych, sprzedawana przez firmy takie jak Flock Safety, budzi szczególny niepokój aktywistów na rzecz prywatności. W przeciwieństwie do tradycyjnych czytników tablic rejestracyjnych, takich jak te od Motorola Solutions, te nowe systemy są oparte na sztucznej inteligencji i połączone ze scentralizowaną bazą danych, do której dostęp mogą uzyskać lokalne i federalne organy ścigania przy niewielkim nadzorze.

Zamiast policji szukającej tablic rejestracyjnych powiązanych z konkretnymi przestępstwami, te systemy oparte na AI mogą badać miliony tablic rejestracyjnych, aby analizować zachowanie każdego samochodu uchwyconego przez kamerę. Dzięki tym informacjom mogą identyfikować „podejrzane” wzorce podróży(nowe okno), takie jak wzorce jazdy, które mogą być związane z handlem narkotykami(nowe okno).

Ludzie są rutynowo identyfikowani jako podejrzani i poddawani zatrzymaniom pojazdów na podstawie niepotwierdzonych dowodów, które według ekspertów od prawa konstytucyjnego USA nie spełniają standardów „prawdopodobnej przyczyny” wymaganych przez Czwartą Poprawkę. Te scentralizowane i coraz bardziej wszechobecne systemy ALPR oparte na AI stanowią system masowej inwigilacji, który stanowi bezpośrednie zagrożenie dla prywatności i wolności wszystkich w USA.

Ogólnokrajowa sieć inwigilacji

Samo Flock Safety wdraża(nowe okno) ponad 40 000 systemów kamer LPR (wiele prawdopodobnie nielegalnie(nowe okno)) i jest używane przez 5(nowe okno)000+ organów ścigania(nowe okno) w ponad 4000 miast w 49 stanach.

W USA zarejestrowanych jest mniej niż 300 milionów pojazdów, ale Flock przetwarza 20+ miliardów skanów tablic rejestracyjnych(nowe okno) miesięcznie, tworząc szczegółowy rekord śledzenia lokalizacji. Skany te są wysyłane do scentralizowanej bazy danych, gdzie organy ścigania z całego kraju mogą przeglądać numery tablic rejestracyjnych kierowców, lokalizacje i kierunki, a także czasy nagrań bez konieczności posiadania nakazów. Między grudniem 2024 a październikiem 2025 roku 3900 agencji(nowe okno) zarejestrowało około 12 miliardów wyszukiwań za pośrednictwem sieci Flock.

Ale nie chodzi tylko o bezpośrednie, ukierunkowane wyszukiwania. Te miliardy nieukierunkowanych skanów tablic rejestracyjnych są analizowane przez zaawansowane oprogramowanie AI i łączone z innymi szczegółami dotyczącymi pojazdu, takimi jak marka, samochód i numer modelu (ale nie skany twarzy), aby stworzyć unikalne „odciski(nowe okno)”, które pozwalają dokładnie śledzić podróże Twoim samochodem. Oznacza to, że każdy, kto chce, może łatwo uzyskać szczegółowy wgląd w Twoje codzienne działania.

A jeśli algorytm oprogramowania AI uzna Twoją aktywność pojazdu za podejrzaną w jakikolwiek sposób, organy ścigania coraz częściej wykorzystują te informacje do zatrzymania i przeszukania Twojego pojazdu, często powołując się na fałszywe dowody, aby obejść zakaz bezzasadnych przeszukań i konfiskat wynikający z Czwartej Poprawki.

Brak nadzoru i odpowiedzialności

Flock i podobne firmy działają jako prywatni wykonawcy dla lokalnych organów ścigania, które mają znacznie luźniejsze wymogi dotyczące przejrzystości i prawa niż władze federalne. Jako prywatni klienci, lokalni funkcjonariusze organów ścigania są aktywnie zachęcani do współpracy(nowe okno) z innymi klientami z lokalnych organów ścigania jako „inteligentniejszego sposobu” walki z przestępczością.

Ta przyjazna atmosfera nieformalnej współpracy, do której Flock w pełni zachęca, ułatwia również władzom omijanie lokalnych regulacji dotyczących prywatności(nowe okno) i poważnie ogranicza odpowiedzialność funkcjonariuszy, którzy lekceważą te regulacje.

Funkcjonariusze rutynowo omijają również ograniczenia prawne dotyczące wyszukiwań w systemie Flock, celowo błędnie przedstawiając powody wyszukiwania. Na przykład biuro szeryfa w Teksasie przeszukało dane z ponad 83 000 kamer Flock, aby wytropić(nowe okno) kobietę, którą podejrzewali o samodzielne przeprowadzenie aborcji — co okazało się nieprawdą. Aby uzasadnić to wyszukiwanie, twierdzili, że szukają „zaginionej osoby” i że „chodziło o jej bezpieczeństwo”.

To, że władze lokalne wiedzą, jak wrażliwe mogą być dane z kamer czytających tablice rejestracyjne, doskonale ilustruje niedawna sprawa sądowa(nowe okno), w której miasto Waszyngton zaciekle walczyło, aby zapobiec publicznemu dostępowi do obrazów z kamer Flock — bezskutecznie.

Dowody pokazują również, że lokalne siły policyjne chętnie nieformalnie udostępniają te informacje władzom federalnym, takim jak FBI i ICE(nowe okno), pozwalając tym agencjom na ominięcie ich prawnych i konstytucyjnych zobowiązań.

Dowody na profilowanie AI przez ALPR

Chociaż siły policyjne w całym kraju zaprzeczają wykorzystywaniu takich wskazówek ALPR generowanych przez AI do inicjowania zatrzymań pojazdów (często powołując się na fałszywe dowody, aby obejść wymóg „prawdopodobnej przyczyny” z Czwartej Poprawki), istnieje coraz więcej dowodów na to, że staje się to rutynową procedurą:

Federalny program predykcyjny Straży Granicznej oflagował pojazdy, które zostały zatrzymane i przeszukane

Śledztwo AP(nowe okno) wykazało, że program „wywiadu predykcyjnego” prowadzony przez Straż Graniczną Stanów Zjednoczonych doprowadził do zatrzymań, przeszukań, a w niektórych przypadkach aresztowań ludzi.

Lokalne departamenty policji otrzymują alerty ALPR i dokonują zatrzymań pojazdów

CBS News(nowe okno) udokumentowało wiele przypadków, w których dopasowania kamer LPR błędnie wywołały zatrzymania policyjne z powodu błędnie odczytanych znaków lub wadliwych dopasowań w bazie danych, co skutkowało zatrzymaniem niewinnych kierowców pod groźbą użycia broni.

Logi ALPR Flock pokazują wyszukiwania powiązane z imigracją i protestami

Analizy logów wyszukiwania Flock Safety pokazują dziesiątki wyszukiwań połączonych z egzekwowaniem prawa imigracyjnego(nowe okno) oraz protestami i działalnością aktywistów(nowe okno).

Śledczy używają AI do uzyskiwania zautomatyzowanych informacji

Raport Departamentu Sprawiedliwości USA (DOJ)(nowe okno) opisuje, w jaki sposób AI jest wykorzystywana w inwigilacji przez organy ścigania, ostrzegając przed dyskryminacją w systemach zautomatyzowanych. Konkretnie wspomina o ALPR jako coraz powszechniejszym sposobie uzyskiwania zautomatyzowanych informacji wykorzystywanych w dochodzeniach.

Nowa pobudka dla prywatności

Jak wszystkie nowe technologie, AI jest mieczem obosiecznym. Jej potencjał w rozwiązywaniu wielu najbardziej skomplikowanych problemów ludzkości jest ogromny, ale taki sam jest jej potencjał do wyrządzania szkód. Opisując teleekran, który pozwalał Wielkiemu Bratu uzyskać dostęp do najbardziej intymnych przestrzeni w każdym domu w jego przełomowej powieści Rok 1984, George Orwell napisał:

„To, jak często i według jakiego systemu Policja Myśli podłączała się do konkretnego przewodu, było zgadywanką. Można było nawet przypuszczać, że obserwowali wszystkich przez cały czas. Ale w każdym razie mogli podłączyć się do twojego przewodu, kiedy tylko chcieli. Musiałeś żyć — i żyłeś, z nawyku, który stał się instynktem — w założeniu, że każdy wydany przez ciebie dźwięk jest podsłuchiwany, a każdy ruch, z wyjątkiem ciemności, badany”.

Połączenie AI i wszechobecnych, zawsze włączonych systemów inwigilacji, które mogą śledzić każdy nasz ruch, znacznie przekracza nawet najbardziej dystopijne wizje Orwella. Niedawne wiadomości, że Flock nawiązuje współpracę z Ring(nowe okno) — najpopularniejszym na świecie producentem inteligentnych dzwonków do drzwi — pokazują, jak bardzo wszechobecna i inwazyjna jest już ta forma śledzenia.

Proton został założony w 2013 roku jako odpowiedź na rewelacje Edwarda Snowdena dotyczące zakresu i zasięgu programu masowej inwigilacji USA i ich partnerów z Sojuszu Pięciorga Oczu (5 Eyes)(nowe okno), mającego na celu szpiegowanie niemal każdego, w tym obywateli USA. Ale zamiast stać się pobudką do otwartej debaty na temat zgody społecznej na masową inwigilację, rządy na całym świecie (w tym bardzo mocno rząd USA) od tego czasu podwoiły wysiłki w tym zakresie.

Fakt, że inwazyjne systemy ALPR wspierane przez AI, takie jak te od Flock, są własnością prywatną, nie stanowi bariery dla nadużywania ich przez agencje rządowe. Wręcz przeciwnie, relacja na zasadzie dystansu umożliwia im ominięcie prawnych i konstytucyjnych zabezpieczeń, których celem jest ochrona zwykłych obywateli przed nadużyciami rządu.