Prawie dekadę po premierze Pokémon Go wpływa na sztuczną inteligencję w nieoczekiwany sposób.

Zgodnie z raportem MIT Technology Review(nowe okno), Niantic Spatial, firma zajmująca się sztuczną inteligencją wydzielona z pierwotnego dewelopera gry, wykorzystuje ponad 30 miliardów zdjęć(nowe okno) miejskich punktów orientacyjnych zrobionych przez graczy Pokémon Go do szkolenia systemów AI, które pomagają robotom zrozumieć, gdzie znajdują się w świecie rzeczywistym.

Kiedy gra Pokémon Go zadebiutowała w 2016 roku, miliony graczy przemierzały swoje miasta, kierując telefony na budynki, parki i zabytki, szukając cyfrowych stworzeń. W ten sposób stworzyli jeden z największych zbiorów danych z obrazami ze świata rzeczywistego, jakie kiedykolwiek zebrano. Niantic Spatial wyszkoliło swój model na 30 miliardach obrazów uchwyconych w środowiskach miejskich, z których wiele skupiało się wokół lokalizacji często odwiedzanych przez graczy w grze. Czasami cyfrowe stworzenia pojawiały się w prywatnych przestrzeniach lub w ich pobliżu, takich jak apartamentowce czy dziedzińce, co oznacza, że momenty te mogły stać się częścią zbiorów danych AI.

Te dane są teraz wykorzystywane do budowania tego, co badacze nazywają „modelem świata” — systemu AI zaprojektowanego, aby pomóc maszynom interpretować fizyczne środowiska i nawigować po nich.

Podkreśla to również coś, co łatwo przeoczyć w kontekście nowoczesnej technologii: codzienna aktywność w aplikacji może po latach dyskretnie stać się cennymi danymi treningowymi dla systemów AI — czegoś, czego gracze Pokémon Go w żaden sposób nie mogli przewidzieć w 2016 roku, nie mówiąc już o wyrażeniu na to świadomej zgody.

Dlaczego GPS ma problemy w miastach

Sygnały GPS często odbijają się od wysokich budynków, znacznie dryfują lub całkowicie znikają w gęstych środowiskach miejskich, co stanowi problem nazywany czasem efektem „miejskiego kanionu”. Jak wyjaśnia w swoim raporcie MIT Technology Review, nawet wskaźniki lokalizacji w smartfonach mogą dryfować o dziesiątki metrów w miastach, często umieszczając urządzenie na niewłaściwej przecznicy lub po złej stronie ulicy.

Rozwiązanie Niantic Spatial opiera się na systemie pozycjonowania wizualnego(nowe okno), który określa lokalizację, analizując to, co widzi kamera. Porównując migawki pobliskich budynków i punktów orientacyjnych z ogromnym zbiorem danych, system jest w stanie określić lokalizację z dokładnością do kilku centymetrów.

Od rzeczywistości rozszerzonej do robotów dostawczych

Jeden z pierwszych testów technologii Niantic Spatial w świecie rzeczywistym odbywa się dzięki partnerstwu z Coco Robotics, startupem obsługującym roboty dostawcze na chodnikach w kilku miastach.

Roboty tej firmy przewożą zakupy spożywcze i zamówienia z restauracji w takich miejscach jak Los Angeles, Chicago, Miami i Helsinki. Według raportu MIT Technology Review roboty Coco zrealizowały już ponad pół miliona dostaw, pokonując miliony mil.

Niezawodne poruszanie się po gęsto zabudowanych miastach pozostaje ogromnym wyzwaniem dla maszyn autonomicznych. Dzięki połączeniu kamer na robotach z systemem pozycjonowania wizualnego Niantic Spatial, maszyny mogą lepiej określić, gdzie dokładnie się znajdują, co pozwala im precyzyjnie zatrzymywać się w lokalizacjach odbioru lub pod drzwiami klienta.

Rozwój „modeli świata”

Projekt odzwierciedla szerszy trend w rozwoju AI.

Duże modele językoweszkolone na obrazach i tekście z Internetu. Dla kontrastu, modele świata mają pomóc maszynom zrozumieć, jak skonstruowany jest sam fizyczny świat — gdzie znajdują się obiekty, w jaki sposób łączą się przestrzenie i jak się po nich bezpiecznie poruszać.

Niantic Spatial twierdzi, że jej długoterminowym celem jest zbudowanie stale zaktualizowanej „żyjącej mapy” świata, którą roboty i inne systemy AI mogą wykorzystywać do nawigacji.

Co to oznacza dla prywatności

Ta historia ilustruje również szerszą zmianę w sposobie ponownego wykorzystywania danych tworzonych przez zwykłych ludzi korzystających z codziennych aplikacji.

Miliony ludzi pobrało Pokémon Go, żeby zagrać w grę. Po drodze jednak wygenerowali również miliardy zdjęć i precyzyjnych sygnałów lokalizacji powiązanych z rzeczywistymi miejscami. Te dane pomagają teraz w szkoleniu systemów AI zaprojektowanych do mapowania fizycznego świata i poruszania się po nim. To dalekie od intencji gracza, by włączyć grę i szukać Pikachu.

Staje się to znajomym wzorcem w gospodarce AI. Działania, które wydają się niezwiązane ze sztuczną inteligencją — robienie zdjęć, przeglądanie sieci, korzystanie z aplikacji — często kończą się tworzeniem zbiorów danych wykorzystywanych do szkolenia nowych, potężnych systemów. Nowoczesne modele AI są często budowane przy użyciu dużych kolekcji danych pozyskanych z Internetu i innych źródeł cyfrowych, co, jak twierdzą badacze, może czasami obejmować dane osobowe lub dane wrażliwe.

W czasie gdy firmy ścigają się w tworzeniu modeli świata i innych form AI, pojawia się pytanie, skąd właściwie pochodzą dane treningowe — i czy osoby, które je wygenerowały, kiedykolwiek zdawały sobie sprawę, jak te dane zostaną wykorzystane, albo czy nadal zgodziłyby się używać tych aplikacji, gdyby znały konsekwencje. Decydenci i badacze coraz częściej wzywają do wprowadzenia jaśniejszych standardów zgody(nowe okno) dla danych używanych do trenowania AI, argumentując, że twórcy i użytkownicy powinni mieć większą kontrolę nad tym, jak ich dane są ponownie wykorzystywane.

Te obawy dotyczące prywatności AI już trafiają do sądów. Wydawcy, autorzy i firmy medialne złożyli pozwy, twierdząc, że ich praca została wykorzystana do szkolenia systemów AI bez pozwolenia, w tym głośna sprawa, w której The New York Times pozwał OpenAI i Microsoft(nowe okno) w związku z domniemanym wykorzystaniem jego dziennikarstwa w zbiorach danych do szkolenia AI.

Dla firm budujących sztuczną inteligencję, która nawiguje po świecie fizycznym, zbiory danych tworzone za pośrednictwem gier, aplikacji i platform cyfrowych szybko stają się jednymi z najcenniejszych zasobów w branży technologicznej. W miarę jak to się dzieje, pytania o przejrzystość, zgodę i sposób ponownego wykorzystywania danych generowanych przez użytkowników stają się coraz trudniejsze do zignorowania.

Nie wszyscy podążają za tym nastawionym na pochłanianie danych modelem. W Proton wierzymy w prywatną, przejrzystą sztuczną inteligencję, która daje Ci korzyści płynące z asystenta AI(nowe okno) bez kosztów związanych z prywatnością. Lumo nigdy nie zapisuje logów z Twoich danych, nie uczy się na Twoich poufnych wątkach ani nie udostępnia Twoich informacji nikomu. Oznacza to korzystanie ze sztucznej inteligencji bez zastanawiania się, czy dzisiejsze interakcje nie staną się po cichu jutrzejszymi zbiorami danych.