Næsten et årti efter udgivelsen påvirker Pokémon Go kunstig intelligens på en uventet måde.

Ifølge en rapport fra MIT Technology Review(nyt vindue), bruger Niantic Spatial, et AI-firma udsprunget fra spillets originale udvikler, mere end 30 milliarder billeder(nyt vindue) af urbane vartegn taget af Pokémon Go-spillere til at træne AI-systemer, der hjælper robotter med at forstå, hvor de er i den virkelige verden.

Da Pokémon Go blev lanceret i 2016, gik millioner af spillere gennem deres byer og pegede telefoner mod bygninger, parker og vartegn, mens de søgte efter digitale skabninger. Ved at gøre det skabte de et af de største datasæt af billeder fra den virkelige verden, der nogensinde er indsamlet. Niantic Spatial trænede sin model på 30 milliarder billeder taget på tværs af bymiljøer, mange grupperet omkring placeringer, som spillere ofte besøgte i spillet. Nogle gange dukkede digitale skabninger op i eller nær private rum, såsom lejlighedskomplekser eller boliggårde, hvilket betyder, at de øjeblikke kan være blevet en del af AI-datasæt.

De data bliver nu brugt til at bygge, hvad forskere kalder en “verdensmodel” – et AI-system designet til at hjælpe maskiner med at fortolke og navigere i fysiske miljøer.

Det fremhæver også noget, der er let at overse ved moderne teknologi: Hverdags-app-aktivitet kan stille og roligt blive til værdifuld træningsdata for AI-systemer år senere – noget, som Pokémon Go-spillere umuligt kunne have forudset i 2016, for slet ikke at tale om at give meningsfuldt samtykke til.

Hvorfor GPS kæmper i byer

GPS-signaler hopper ofte af høje bygninger, driver betydeligt eller forsvinder helt i tætte bymiljøer, et problem der nogle gange kaldes “urban canyon”-effekten. Som MIT Technology Review forklarer i sin rapport om teknologien, kan selv smartphone-placeringsindikatorer drive snesevis af meter i byer og ofte placere en enhed på den forkerte blok eller den forkerte side af gaden.

Niantic Spatials løsning er afhængig af et visuelt positioneringssystem(nyt vindue), som bestemmer placeringen ved at analysere, hvad et kamera ser. Ved at sammenligne snapshots af nærliggende bygninger og vartegn med dets massive datasæt, kan systemet angiveligt lokalisere en placering inden for få centimeter.

Fra augmented reality til leveringsrobotter

En af de første tests i den virkelige verden af Niantic Spatials teknologi sker gennem et partnerskab med Coco Robotics, en startupvirksomhed, der driver fortovsleveringsrobotter på tværs af adskillige byer.

Virksomhedens robotter bærer dagligvarer og restaurantordrer på steder som Los Angeles, Chicago, Miami og Helsinki. Ifølge MIT Technology Review-rapporten har Cocos robotter allerede gennemført mere end en halv million leveringer og dækket millioner af miles.

At navigere pålideligt i tætte byer forbliver en stor udfordring for autonome maskiner. Ved at kombinere kameraer på robotterne med Niantic Spatials visuelle positioneringssystem kan maskinerne bedre bestemme nøjagtigt, hvor de er, hvilket giver dem mulighed for at stoppe præcist ved afhentningsplaceringer eller uden for en kundes dør.

Fremkomsten af “verdensmodeller”

Projektet afspejler en bredere tendens i AI-udvikling.

Store sprogmodeller er trænet på billeder og tekst fra internettet. Verdensmodeller har derimod til formål at hjælpe maskiner med at forstå, hvordan den fysiske verden selv er struktureret — hvor genstande er placeret, hvordan rum forbindes, og hvordan man bevæger sig sikkert gennem dem.

Niantic Spatial siger, at dets langsigtede mål er at opbygge et konstant opdateret “levende kort” over verden, som robotter og andre AI-systemer kan bruge til at navigere.

Hvad dette betyder for privatlivet

Denne historie illustrerer også et bredere skift i, hvordan data, der er skabt af almindelige mennesker ved hjælp af hverdags-apps, genbruges.

Millioner af mennesker downloadede Pokémon Go for at spille et spil. Men undervejs genererede de også milliarder af billeder og præcise placeringssignaler knyttet til steder i den virkelige verden. Disse data hjælper nu med at træne AI-systemer designet til at kortlægge og navigere i den fysiske verden. Det er langt væk fra spillerens intention om at samle spillet op og søge efter Pikachu.

Dette er ved at blive et velkendt mønster i AI-økonomien. Aktiviteter, der synes uafhængige af kunstig intelligens – at tage billeder, surfe på nettet (web), bruge apps – ender ofte med at producere de datasæt, der bruges til at træne kraftfulde nye systemer. Moderne AI-modeller bygges ofte ved hjælp af store samlinger af data skrabet fra internettet og andre digitale kilder, som forskere siger nogle gange kan inkludere personlige oplysninger eller følsomme data.

Mens virksomheder ræser for at bygge verdensmodeller og andre former for AI, bliver spørgsmålet, præcis hvor træningsdataene kommer fra – og om de mennesker, der genererede dem, nogensinde indså hvordan de data ville blive brugt, eller om de stadig ville have accepteret at bruge disse apps, hvis de havde kendt konsekvenserne. Politikere og forskere har i stigende grad efterspurgt tydeligere samtykkestandarder(nyt vindue) for data, der bruges i AI-træning, med det argument, at skabere og brugere bør have mere kontrol over, hvordan deres data genbruges.

Disse AI-privatlivsbekymringer udspiller sig allerede i retten. Forlag, forfattere og medievirksomheder har anlagt retssager, der hævder, at deres arbejde blev brugt til at træne AI-systemer uden tilladelse, herunder en højtprofileret sag, hvor The New York Times sagsøgte OpenAI og Microsoft(nyt vindue) for den påståede brug af dens journalistik i AI-træningsdatasæt.

For virksomheder, der bygger AI, der navigerer i den fysiske verden, bliver datasæt skabt gennem spil, apps og digitale platforme hurtigt nogle af de mest værdifulde aktiver i teknologibranchen. Efterhånden som det sker, bliver spørgsmål om gennemsigtighed, samtykke og hvordan brugergenereret data genbruges, sværere at ignorere.

Ikke alle forfølger denne data-sultne model. Hos Proton tror vi på privat, gennemsigtig AI, der giver Dem fordelene ved en AI-assistent(nyt vindue) uden privatlivsomkostningerne. Lumo logger aldrig Deres data, træner på Deres følsomme samtaler eller deler Deres informationer med nogen. Det betyder at bruge AI uden at spekulere på, om dagens interaktioner stille og roligt kan blive morgendagens datasæt.