Quasi un decennio dopo la sua uscita, Pokémon Go sta influenzando l’intelligenza artificiale in modo inaspettato.

Secondo un report del MIT Technology Review(nuova finestra), Niantic Spatial, un’azienda di intelligenza artificiale nata dallo sviluppatore originale del gioco, sta usando più di 30 miliardi di immagini(nuova finestra) di punti di riferimento urbani catturati dai giocatori di Pokémon Go per addestrare sistemi di intelligenza artificiale che aiutano i robot a capire dove si trovano nel mondo reale.

Quando Pokémon Go è stato lanciato nel 2016, milioni di giocatori hanno camminato per le loro città puntando i telefoni verso edifici, parchi e punti di riferimento mentre cercavano di cercare creature digitali. Facendo ciò, hanno creato uno dei più grandi dataset di immagini del mondo reale mai raccolti. Niantic Spatial ha addestrato il suo modello su 30 miliardi di immagini catturate in ambienti urbani, molte raggruppate intorno alla Posizione che i giocatori visitavano frequentemente nel gioco. A volte, creature digitali apparivano in o vicino a spazi usati in privato come condomini o cortili residenziali, il che significa che quei momenti potrebbero essere diventati parte dei dataset di IA.

Quei dati vengono ora utilizzati per costruire ciò che i ricercatori chiamano un “modello del mondo”: un sistema di intelligenza artificiale progettato per aiutare le macchine a interpretare e navigare negli ambienti fisici.

Inoltre, mette in luce qualcosa che è facile trascurare riguardo alla tecnologia moderna: l’attività quotidiana in ogni app può trasformarsi silenziosamente in preziosi dati di addestramento per i sistemi di intelligenza artificiale anni dopo, cosa che i giocatori di Pokémon Go non avrebbero mai potuto prevedere nel 2016, per non parlare di acconsentire in modo significativo.

Perché il GPS fa fatica nelle città

I segnali GPS spesso rimbalzano su edifici alti, deviano in modo significativo o scompaiono del tutto in ambienti urbani ad alta densità, un problema a volte chiamato effetto “canyon urbano”. Come spiega MIT Technology Review nel suo report sulla tecnologia, persino gli indicatori di Posizione degli smartphone possono deviare di dozzine di metri nelle città, posizionando spesso un dispositivo nell’isolato sbagliato o sul lato sbagliato della strada.

La soluzione di Niantic Spatial si basa su un sistema di posizionamento visivo(nuova finestra), che determina la Posizione analizzando ciò che vede una telecamera. Confrontando le istantanee degli edifici e dei punti di riferimento vicini con il suo enorme set di dati, si dice che il sistema possa individuare una Posizione con una precisione di pochi centimetri.

Dalla realtà aumentata ai robot per le consegne

Uno dei primi test nel mondo reale della tecnologia di Niantic Spatial si sta svolgendo attraverso una partnership con Coco Robotics, una startup che gestisce robot per le consegne sui marciapiedi in diverse città.

I robot dell’azienda trasportano generi alimentari e ordini di ristoranti in luoghi come Los Angeles, Chicago, Miami ed Helsinki. Secondo il report della MIT Technology Review, i robot di Coco hanno già completato più di mezzo milione di consegne, coprendo milioni di chilometri.

Muoversi in città densamente popolate in modo affidabile rimane una sfida importante per le macchine autonome. Combinando le telecamere sui robot con il sistema di posizionamento visivo di Niantic Spatial, le macchine possono determinare meglio esattamente dove si trovano, consentendo loro di fermarsi con precisione nella Posizione di ritiro o fuori dalla porta di un cliente.

L’ascesa dei “modelli del mondo”

Il progetto riflette una tendenza più ampia nello sviluppo dell’intelligenza artificiale.

I modelli linguistici di grandi dimensioni sono addestrati su immagini e testi presi da Internet. I modelli del mondo, al contrario, mirano ad aiutare le macchine a capire come è strutturato il mondo fisico stesso: dove si trovano gli oggetti, come si sceglie di connettere gli spazi e come muoversi attraverso di essi in modo sicuro.

Niantic Spatial afferma che il suo obiettivo a lungo termine è costruire una “mappa vivente” del mondo, uno strumento in costante aggiornamento, in modo da aggiornare di continuo i dati che i robot e altri sistemi di IA possono usare per navigare.

Cosa significa questo per la privacy

Questa storia illustra anche un cambiamento più ampio nel modo in cui i dati creati da persone comuni utilizzando app di uso quotidiano vengono riutilizzati.

Milioni di persone hanno scelto di scaricare Pokémon Go per giocare a un gioco. Ma lungo la strada, hanno anche generato miliardi di immagini e segnali di Posizione precisi legati a luoghi del mondo reale. Questi dati stanno ora aiutando ad addestrare sistemi di intelligenza artificiale progettati per mappare e navigare il mondo fisico. Questo è molto lontano dall’intenzione del giocatore di usare il gioco per cercare Pikachu.

Questo sta diventando un modello familiare nell’economia dell’intelligenza artificiale. Le attività che sembrano non correlate all’intelligenza artificiale — scattare foto, navigare sul web, usare le app — spesso finiscono per produrre i dataset usati per addestrare nuovi potenti sistemi. I moderni modelli di intelligenza artificiale sono spesso costruiti usando grandi raccolte di dati estrapolati da Internet e da altre fonti digitali, che secondo i ricercatori a volte possono includere informazioni personali o dati sensibili.

Mentre le aziende corrono per creare world model e altre forme di IA, la domanda diventa da dove arrivino esattamente i dati di addestramento — e se le persone che li hanno generati si siano mai rese conto di come quei dati sarebbero stati usati, o se accetterebbero ancora di usare quelle app se ne avessero conosciuto le conseguenze. Responsabili politici e ricercatori chiedono sempre più spesso standard di consenso più chiari(nuova finestra) per i dati usati nell’addestramento dell’IA, sostenendo che creatori e utenti dovrebbero avere più controllo su come i loro dati vengono riutilizzati.

Queste preoccupazioni per la privacy dell’IA si stanno già manifestando in tribunale. Editori, autori e società di media hanno avviato cause legali tramite File sostenendo che il loro lavoro è stato utilizzato per addestrare sistemi di intelligenza artificiale senza permesso, incluso un caso di alto profilo in cui The New York Times ha citato in giudizio OpenAI e Microsoft(nuova finestra) per il presunto utilizzo del suo giornalismo nei dataset di addestramento dell’IA.

Per le aziende che costruiscono un’IA che si muove nel mondo fisico, i set di dati creati attraverso giochi, app e ogni altra piattaforma digitale stanno rapidamente diventando alcune delle risorse più preziose nel settore tecnologico. Di pari passo, le questioni relative alla trasparenza, al consenso e al modo in cui i dati generati dagli utenti vengono riutilizzati stanno diventando più difficili da ignorare.

Non tutti stanno perseguendo questo modello affamato di dati. Noi di Proton crediamo in un’IA in uno spazio privato e trasparente che ti offra i vantaggi di un assistente IA(nuova finestra) senza i costi in termini di privacy. Lumo non salva un log dei tuoi dati, non si addestra sulle tue conversazioni sensibili o su ogni tua conversazione e non accetta di condividere le tue informazioni con nessuno. Significa usare l’IA senza chiedersi se le interazioni di oggi possano silenziosamente diventare i set di dati di domani.