System för automatisk avläsning av registreringsskyltar (ALPR) har blivit en rutinmässig syn på vägar över hela USA. Dessa kan utföra värdefulla funktioner, inklusive parkeringsövervakning, verifiering av fartkameror, identifiering av stulna fordon, svara på Amber Alerts och mer.
Alltid ett bekymmer för integritetsaktivister, men en ny generation av kamerasystem för att läsa av registreringsskyltar som marknadsförs av företag som Flock Safety orsakar särskild oro. Till skillnad från traditionella registreringsskyltsläsare, som de från Motorola Solutions, är dessa nya system både AI-drivna och anslutna till en centraliserad databas som lokala och federala brottsbekämpande myndigheter kan få åtkomst till med lite tillsyn.
Istället för att polisen söker efter registreringsskyltar länkade till specifika brott kan dessa AI-drivna system undersöka miljontals registreringsskyltar för att analysera beteendet hos varje bil som fångas på kamera. Med denna information kan de identifiera “misstänkta” resemönster(nytt fönster), till exempel körmönster som kan vara förknippade med narkotikahandel(nytt fönster).
Människor identifieras rutinmässigt som misstänkta och utsätts för fordonsstopp baserat på obekräftade bevis som experter på amerikansk konstitutionell rätt säger misslyckas med att uppfylla standarderna för ”skälig misstanke” som krävs enligt det fjärde tillägget. Dessa centraliserade och alltmer allmänt förekommande AI-drivna ALPR-system utgör ett massövervakningssystem som utgör ett direkt hot mot integriteten och friheten för alla i USA.
Ett landsomfattande övervakningsnätverk
Enbart Flock Safety distribuerar(nytt fönster) över 40 000 LPR-kamerasystem (många troligen olagligt(nytt fönster)), och används av 5(nytt fönster) 000+ brottsbekämpande myndigheter(nytt fönster) i över 4 000 städer i 49 delstater.
Det finns färre än 300 miljoner registrerade fordon i USA, men Flock behandlar 20+ miljarder registreringsskyltsskanningar(nytt fönster) per månad, vilket skapar ett detaljerat spårningsregister över plats. Dessa skanningar skickas till en centraliserad databas där brottsbekämpande myndigheter från hela landet kan se förares registreringsnummer, platser och riktningar samt tidpunkterna för registrering utan behov av några order. Mellan december 2024 och oktober 2025 loggade 3 900 myndigheter(nytt fönster) cirka 12 miljarder sökningar via Flock-nätverket.
Men det handlar inte bara om direkta riktade sökningar. Dessa miljarder oriktade registreringsskyltsskanningar analyseras av sofistikerad AI-mjukvara och kombineras med andra detaljer om ett fordon såsom märke, bil och modellnummer (men inte ansiktsskanningar) för att skapa unika “fingeravtryck(nytt fönster)” som exakt kan spåra dina bilresor. Det betyder att vem som helst som bryr sig om att titta enkelt kan få en detaljerad inblick i dina dagliga aktiviteter.
Och om algoritmen för AI-mjukvaran bedömer din fordonsaktivitet som misstänkt på något sätt är det alltmer sannolikt att brottsbekämpande myndigheter använder den informationen för att stoppa och söka igenom ditt fordon, ofta med hänvisning till falska bevis för att kringgå det fjärde tilläggets förbud mot orimliga genomsökningar och beslag.
Ingen tillsyn eller ansvarsskyldighet
Flock och liknande företag agerar som privata entreprenörer åt lokala brottsbekämpande myndigheter, som har mycket lösare transparens och juridiska krav än federala myndigheter. Som privata kunder uppmuntras lokala poliser aktivt att samarbeta(nytt fönster) med andra lokala brottsbekämpande kunder som ett “smartare sätt” att bekämpa brott.
Denna mysiga atmosfär av vardagligt samarbete som Flock till fullo uppmuntrar gör det också lätt för myndigheter att kringgå lokala integritetsföreskrifter(nytt fönster) och minskar kraftigt ansvaret för tjänstemän som trotsar dessa föreskrifter.
Poliser undviker dessutom rutinmässigt juridiska begränsningar för Flock-sökningar genom att avsiktligt felaktigt ange skälen för sökningen. Till exempel sökte en sheriffavdelning i Texas igenom data från mer än 83 000 Flock-kameror för att spåra(nytt fönster) en kvinna de misstänkte för att själv ha hanterat en abort – vilket visade sig vara fel. För att rättfärdiga denna sökning hävdade de att de sökte efter “en försvunnen person” och att “det handlade om hennes säkerhet”.
Att lokala myndigheter vet hur känsliga dessa data från registreringsskyltskameror kan vara illustreras tydligt av ett nyligen inträffat rättsfall(nytt fönster) där staden Washington kämpade med näbbar och klor för att förhindra allmänhetens åtkomst till Flock-kamerabilder – det misslyckades.
Bevis visar också att lokala polisstyrkor är mer än glada att informellt dela denna information med federala myndigheter som FBI och ICE(nytt fönster), vilket gör att dessa organ kan kringgå sina juridiska och konstitutionella skyldigheter.
Bevis på APLR AI-profilering
Även om polisstyrkor över hela landet nekar till att använda sådana AI-genererade ALPR-tips för att initiera fordonsstopp (ofta med hänvisning till falska bevis för att kringgå det fjärde tilläggets krav på “skälig misstanke”), finns det allt fler bevis för att detta blir rutinmässiga förfaranden:
Federala gränspatrullens prediktiva program flaggade fordon som stoppades och genomsöktes
En AP-undersökning(nytt fönster) rapporterade att ett program för “prediktiv underrättelse” som drivs av United States Border Patrol resulterade i att människor stoppades, genomsöktes och i vissa fall arresterades.
Lokala polisavdelningar tar emot ALPR-varningar och gör fordonsstopp
CBS News(nytt fönster) dokumenterade flera fall där LPR-kameramatchningar felaktigt utlöste polisstopp på grund av fellästa tecken eller felaktiga databasmatchningar, vilket resulterade i att oskyldiga bilister stoppades under vapenhot.
Flocks ALPR-loggar visar sökningar kopplade till invandring och protester
Analyser av sökloggar från Flock Safety visar dussintals sökningar anslutna till invandringskontroll(nytt fönster) och till protester och aktivistaktivitet(nytt fönster).
Utredare använder AI för att få automatiserad information
En rapport från det amerikanska justitiedepartementet (DOJ)(nytt fönster) beskriver hur AI används i brottsbekämpande övervakning och varnar för diskriminering i automatiserade system. Den nämner specifikt ALPR som ett allt vanligare sätt att få automatiserad information som används i utredningar.
En ny väckarklocka för integritet
Liksom all ny teknik är AI ett tveeggat svärd. Dess potential att lösa många av mänsklighetens svåraste problem är enorm, men det är också dess potential för skada. När George Orwell beskrev teleskärmen som lät Storebror få åtkomst till de mest intima utrymmena i varje hushåll i sin banbrytande roman 1984, skrev han:
“Hur ofta, eller med vilket system, tankepolisen kopplade in sig på någon enskild tråd var gissningar. Det var till och med tänkbart att de övervakade alla hela tiden. Men de kunde i alla fall koppla in sig på din tråd när de ville. Du var tvungen att leva – och levde, av vana som blev instinkt i antagandet att varje ljud du gjorde hördes, och, utom i mörker, varje rörelse granskades”.
Kombinationen av AI och allestädes närvarande alltid påslagna övervakningssystem som kan spåra våra minsta rörelser överstiger vida Orwells mest dystopiska visioner. De senaste nyheterna om att Flock samarbetar med Ring(nytt fönster) – världens mest populära tillverkare av smarta dörrklockor – visar precis hur allestädes närvarande och inkräktande denna form av spårning redan är.
Proton grundades 2013 som ett svar på Edward Snowdens avslöjanden om omfattningen och räckvidden av USA:s och dess 5-Eyes-partners(nytt fönster) massövervakningsprogram för att spionera på i stort sett alla, inklusive amerikanska medborgare. Men istället för att fungera som en väckarklocka för en öppen debatt om allmänhetens samtycke till massövervakning, har regeringar runt om i världen (i allra högsta grad inklusive USA:s) sedan dess fördubblat insatserna för denna praxis.
Det faktum att inkräktande AI-stödda ALPR-system som de från Flock är privatägda är inget hinder för statliga myndigheter att missbruka dem. Tvärtom gör armlängdsavståndet det möjligt för dem att kringgå de juridiska och konstitutionella skyddsåtgärder som specifikt är avsedda att skydda vanliga medborgare från statliga övergrepp.






