Nästan ett decennium efter lanseringen påverkar Pokémon Go artificiell intelligens på ett oväntat sätt.

Enligt en rapport från MIT Technology Review(nytt fönster) använder Niantic Spatial, ett AI-företag som knoppats av från spelets ursprungliga utvecklare, mer än 30 miljarder bilder(nytt fönster) av landmärken i stadsmiljö som fångats av Pokémon Go-spelare för att träna AI-system som hjälper robotar att förstå var de befinner sig i den verkliga världen.

När Pokémon Go lanserades 2016 gick miljontals spelare genom sina städer och riktade telefonerna mot byggnader, parker och landmärken medan de letade efter digitala varelser. Genom att göra det skapade de en av de största datamängderna med bilder från den verkliga världen som någonsin samlats in. Niantic Spatial tränade sin modell på 30 miljarder bilder tagna i stadsmiljöer, många samlade kring platser som spelare ofta besökte i spelet. Ibland dök digitala varelser upp i eller nära privata utrymmen som flerfamiljshus eller bostadsgårdar, vilket innebär att dessa ögonblick kan ha blivit en del av AI-datamängder.

Dessa data används nu för att bygga det som forskare kallar en ”världsmodell” – ett AI-system som är utformat för att hjälpa maskiner att tolka och navigera i fysiska miljöer.

Det belyser också något som är lätt att förbise med modern teknik: vardaglig aktivitet i appar kan i det tysta bli värdefulla träningsdata för AI-system flera år senare – något som Pokémon Go-spelare omöjligen kunde ha förutsett 2016, än mindre gett ett meningsfullt samtycke till.

Varför GPS har svårt i städer

GPS-signaler studsar ofta mot höga byggnader, avviker kraftigt eller försvinner helt i tät stadsmiljö, ett problem som ibland kallas ”urban canyon”-effekten. Som MIT Technology Review förklarar i sin rapport om tekniken kan även platsindikatorer på smarttelefoner avvika med tiotals meter i städer och ofta placera en enhet på fel kvarter eller på fel sida av gatan.

Niantic Spatials lösning bygger på ett visuellt positioneringssystem(nytt fönster), som bestämmer plats genom att analysera vad en kamera ser. Genom att jämföra ögonblicksbilder av närliggande byggnader och landmärken med sin enorma datamängd kan systemet enligt uppgift fastställa en plats med en noggrannhet på några centimeter.

Från förstärkt verklighet till leveransrobotar

Ett av de första testerna i verkligheten av Niantic Spatials teknik sker genom ett partnerskap med Coco Robotics, en startup som driver leveransrobotar på trottoarer i flera städer.

Företagets robotar transporterar matvaror och restaurangbeställningar på platser som Los Angeles, Chicago, Miami och Helsingfors. Enligt rapporten från MIT Technology Review har Cocos robotar redan genomfört mer än en halv miljon leveranser och tillryggalagt miljontals kilometer.

Att pålitligt navigera i täta städer är fortfarande en stor utmaning för autonoma maskiner. Genom att kombinera kameror på robotarna med Niantic Spatials visuella positioneringssystem kan maskinerna bättre avgöra exakt var de befinner sig, vilket gör att de kan stanna exakt vid upphämtningsplatser eller utanför en kunds dörr.

Framväxten av ”världsmodeller”

Projektet återspeglar en bredare trend i AI-utvecklingen.

Stora språkmodeller tränas på bilder och text från internet. Världsmodeller syftar däremot till att hjälpa maskiner att förstå hur den fysiska världen själv är strukturerad – var objekt finns, hur rum hänger samman och hur man rör sig säkert genom dem.

Niantic Spatial säger att deras långsiktiga mål är att bygga en ständigt uppdaterad ”levande karta” över världen som robotar och andra AI-system kan använda för att navigera.

Vad detta betyder för integriteten

Den här historien illustrerar också en bredare förändring i hur data som skapats av vanliga människor som använder vanliga appar återanvänds.

Miljontals människor laddade ner Pokémon Go för att spela ett spel. Men på vägen genererade de också miljarder bilder och exakta platssignaler kopplade till verkliga platser. Dessa data hjälper nu till att träna AI-system som är utformade för att kartlägga och navigera i den fysiska världen. Det är långt från spelarens avsikt att börja spela i jakten på Pikachu.

Detta blir ett allt mer välbekant mönster i AI-ekonomin. Aktiviteter som verkar orelaterade till artificiell intelligens – att ta bilder, surfa på webben, använda appar – slutar ofta med att producera de datamängder som används för att träna kraftfulla nya system. Moderna AI-modeller byggs ofta med hjälp av stora samlingar data som skrapats från internet och andra digitala källor, som forskare säger ibland kan innehålla personlig information eller känsliga data.

När företag tävlar om att bygga världsmodeller och andra former av AI blir frågan var träningsdata egentligen kommer från – och om de människor som skapade dem någonsin insåg hur dessa data skulle användas, eller fortfarande skulle gå med på att använda apparna om de hade känt till konsekvenserna. Beslutsfattare och forskare har i allt större utsträckning efterlyst tydligare samtyckesstandarder(nytt fönster) för data som används i AI-träning och menar att skapare och användare bör ha större kontroll över hur deras data återanvänds.

Dessa integritetsproblem med AI utspelar sig redan i domstol. Förlag, författare och medieföretag har lämnat in stämningar där de hävdar att deras arbete användes för att träna AI-system utan tillstånd, inklusive ett uppmärksammat fall där The New York Times stämde OpenAI och Microsoft(nytt fönster) för den påstådda användningen av deras journalistik i AI-träningsdatamängder.

För företag som bygger AI som navigerar i den fysiska världen blir datamängder som skapas genom spel, appar och digitala plattformar snabbt några av de mest värdefulla tillgångarna i teknikbranschen. I takt med att det sker blir frågor om transparens, samtycke och hur användargenererade data återanvänds svårare att ignorera.

Inte alla följer denna datatörstiga modell. På Proton tror vi på privat, transparent AI som ger dig fördelarna med en AI-assistent(nytt fönster) utan integritetskostnaderna. Lumo loggar aldrig dina data, tränar inte på dina känsliga konversationer och delar inte din information med någon. Det innebär att använda AI utan att undra om dagens interaktioner i tysthet kan bli morgondagens datamängder.