Problem „dopasowania” AI zakłada, że w miarę jak systemy AI stają się bardziej inteligentne, trudniej będzie dopasować ich cele do celów ich twórców. System AI mógłby teoretycznie „zbuntować się”, opracowując niepożądane i nieprzewidywalne strategie osiągnięcia celu.

Maksymalizator spinaczy(nowe okno) to eksperyment myślowy badający tę koncepcję: Gdyby superinteligentna AI otrzymała za zadanie jedyny cel polegający na tworzeniu spinaczy, mogłaby przejąć światowe zasoby, aby osiągnąć swój cel za wszelką cenę, zamieniając wszystko w spinacze. W końcu mogłaby nawet uznać ludzi próbujących powstrzymać AI za przeszkodę i ich wyeliminować: wyraźny brak dopasowania między interesami AI a ludzkimi.

Choć oczywiście dziwaczny, problem spinaczy stał się punktem odniesienia popkultury dla AI. W prawdziwym życiu ograniczenia i zasady powstrzymują systemy przed wykraczaniem poza ich zamierzone cele. Ale wielu założycieli i prezesów Big Tech używa tej hipotetycznej sytuacji, aby wywołać szum wokół swoich dużych modeli językowych (LLM). Czy chatboty naprawdę mają moc, by doprowadzić do wyginięcia ludzkości? Nie. Ale sprawia to, że brzmią imponująco i, co ważniejsze, ukrywa prawdziwy problem dopasowania AI, który szkodzi nam właśnie teraz: LLM-y Big Tech naruszają naszą prywatność, kradną nasze dane i dewaluują naszą gospodarkę informacyjną. To zarówno strategia sprzedaży, jak i odwracanie uwagi, zaprojektowane tak, abyśmy patrzyli w przyszłość zamiast patrzeć na kontrolę, którą oddajemy w teraźniejszości.

Czy jesteśmy na drodze do dystopijnej przyszłości?

Kiedy założyciele wygłaszają szerokie, spekulacyjne oświadczenia o tym, co ich produkty „mogłyby” zrobić, jest to przede wszystkim metoda tworzenia możliwości biznesowych i kreowania wartości dla akcjonariuszy. LLM-y i generatywna AI to produkty biznesowe. W interesie ich właścicieli leży, abyś uwierzył, że ich narzędzie jest rewolucyjne.

Media chętnie promują sensacyjne historie, takie jak potencjał narzędzi AI do pomocy użytkownikom w tworzeniu broni biologicznej(nowe okno) czy okłamywaniu deweloperów(nowe okno), jakby generatywna AI miała własny umysł (nie ma). Łatwo zdobyć kliknięcia nagłówkami o skrajnych lub bezpodstawnych opiniach, ale takie poglądy nie są dokładnym obrazem technologii AI, która istnieje dzisiaj.

Zamiast tego LLM-y to po prostu maszyny do przewidywania słów. Są programami komputerowymi, które trawią ogromne ilości tekstu, „ucząc się” wzorców ludzkiego języka, a następnie budują probabilistyczne odpowiedzi na dane wejściowe użytkownika. Nie mają własnych myśli, a nawet nie rozumieją języka. W rzeczywistości muszą najpierw przekonwertować słowa na liczby, zanim będą mogły przetworzyć informacje. Ograniczenia LLM-ów zostały dobrze udokumentowane przez Gary’ego Marcusa(nowe okno) i wielu innych badaczy.

Nowe narzędzia kapitalizmu inwigilacyjnego

LLM-y nie spowodują apokalipsy, ale są całkiem dobre w czymś innym: zbieraniu niezwykle szczegółowych informacji o Tobie. Dlatego LLM-y są kopalnią złota danych dla firm i atrakcyjnym celem dla przestępców.

LLM-y zasilają chatboty takie jak ChatGPT, Copilot, Claude i Grok, które działają jak wyszukiwarki. Teoretycznie możesz używać tych chatbotów do czegokolwiek chcesz: mogą pomóc Ci stworzyć listy zakupów, zorganizować kalendarz, pisać e-maile lub pisać kod. Są Twoim osobistym asystentem, nauczycielem, powiernikiem lub kimkolwiek innym, o bycie kim ich poprosisz.

Setki milionów ludzi na całym świecie już udostępniają swoje pytania, pomysły, myśli i najgłębsze sekrety chatbotom. Są do tego zachęcani przez firmy, które je prowadzą: Sam Altman, CEO Open AI, zauważył niedawno(nowe okno), że pokolenie Z „naprawdę nie podejmuje życiowych decyzji bez zapytania ChatGPT, co powinno zrobić”. Wskazywanie i zachęcanie do takiego poziomu zaufania i polegania na nastawionym na zysk i zawodnym chatbocie jest głęboko nieodpowiedzialne. Big Tech chce, abyśmy pośredniczyli w naszym życiu i myślach poprzez ich usługi, ponieważ wtedy mają wpływ na to, jak wydajemy pieniądze, co robimy i co myślimy.

Firmy stojące za LLM-ami sprzedają również swoje produkty jako rozwiązania zwiększające produktywność dla rządów i firm, obiecując zaoszczędzić czas i wysiłek użytkownikom, jednocześnie wprowadzając nowe możliwości inwigilacji. W Wielkiej Brytanii system AI Ministerstwa Sprawiedliwości „przewiduje” ryzyko ponownego popełnienia przestępstwa(nowe okno) przez więźniów. Funkcjonariusze policji używają chatbotów(nowe okno) do spisywania raportów o przestępstwach. Łączenie uprawnień państwowych z stronniczymi algorytmami(nowe okno) jest niebezpieczne i wzmacnia istniejące uprzedzenia.

Wykorzystywanie Twoich danych do celów szkoleniowych

LLM-y działają na modelach AI szkolonych na ogromnych zbiorach danych, a aby ulepszyć swoje usługi, wymagają coraz więcej danych. Niestety, te dane pochodzą od Ciebie: Twoje czaty, zdjęcia, wyszukiwania w sieci. Firmy nie zawsze zapytają o Twoją zgodę ani nie wyjaśnią, co od Ciebie zbierają.

Na przykład Meta AI chce skanować (nowe okno)zdjęcia(nowe okno) w Twojej bibliotece, których nawet nie przesłałeś na jej platformy, aby analizować Twoje dane twarzy. Wielu użytkowników było zaniepokojonych ogłoszeniem, że AI Copilot Microsoftu(nowe okno) będzie robić zrzuty ekranu ich urządzeń co kilka minut. Twoje zdjęcia, wiadomości do przyjaciół i bliskich oraz Twoje najbardziej osobiste myśli są cennymi punktami danych, których pragną te firmy.

Patrząc na politykę prywatności(nowe okno) Open AI, widzimy, że ChatGPT znajdzie i przechowa:

  • Identyfikatory, takie jak Twoje imię i nazwisko, szczegóły kontaktu, adres IP i inne identyfikatory urządzenia
  • Informacje handlowe, takie jak historia transakcji
  • Informacje o aktywności sieciowej, takie jak treści i sposób interakcji z ChatGPT
  • Ogólną lokalizację, z której uzyskujesz dostęp do ChatGPT

Informacje te mogą zostać ujawnione rządom, sprzedawcom, podmiotom stowarzyszonym, dostawcom usług i innym stronom trzecim.

Zasadniczo LLM poznaje Cię. Podobnie jak wyszukiwarka, zaczyna rozumieć Twoje nawyki, preferencje, zainteresowania i każdy aspekt Ciebie, który może wywnioskować z Twojego zachowania. Big Tech zawsze będzie priorytetowo traktować znajdowanie nowych sposobów na pozyskanie Twoich danych osobowych, ponieważ jest to opłacalne. I mają nadzieję, że tego nie zauważysz.

Wystarczy pomyśleć o trendach, które ogarnęły media społecznościowe w ostatnich latach: niestandardowe animacje w stylu Studio Ghibli(nowe okno) naśladowały charakterystyczny styl Hayao Miyazakiego wbrew jego woli, a niestandardowe lalki w opakowaniach AI(nowe okno) inspirowane klasycznymi zabawkami, takimi jak Barbie, tworzyły wizualne wglądy w osobiste gusta ludzi. Ten trend w mediach społecznościowych mógł wydawać się nieszkodliwą zabawą, ale narzędzia AI użyte do stworzenia tych obrazów były w stanie zbierać zdjęcia i informacje o ludziach, które ich firmy nadrzędne mogą wykorzystać do celów reklamowych i potencjalnie sprzedać stronom trzecim. To tylko dwa z wielu przykładów cichego wchłaniania Twoich danych osobowych przez Big Tech w zamian za udział w przelotnym trendzie.

Istnieje lepsze rozwiązanie dla LLM-ów

Po przeczytaniu o wszystkich tych ryzykach możesz dojść do wniosku, że LLM-y są z natury niebezpieczne. Ale tak wcale nie jest. Firmy Big Tech zbudowały swoje systemy AI tak, aby były inwazyjne i żądne danych celowo. Możliwe jest zbudowanie AI, która domyślnie chroni prywatność ludzi i zabezpiecza dane. Wiemy o tym, ponieważ zrobiliśmy to z Lumo, naszym stawiającym na prywatność asystentem AI(nowe okno).

Oto jak Lumo rozwiązuje prawdziwy problem dopasowania AI:

  • Lumo nie przechowuje logów Twoich rozmów. Każdy czat jest usuwany z naszych serwerów, gdy tylko model skończy przetwarzać Twoje zapytanie i odpowiedź.
  • Historie czatów są przechowywane z szyfrowaniem o zerowym dostępie. Dzięki zablokowaniu Twoich danych Twoim tajnym kluczem, Proton nigdy nie ma dostępu i dlatego nigdy nie może udostępnić ani przypadkowo wyciec Twoich danych.
  • Nie trenujemy modeli Twoimi czatami. Wykorzystywanie rozmów do szkolenia modeli AI naraża Twoje dane na ryzyko ponownego pojawienia się w przyszłych wynikach. Rozmowy z Lumo należą wyłącznie do Ciebie.
  • Lumo jest open source i używa tylko modeli open source. Ponieważ nasza baza kodu jest publiczna, każdy może zweryfikować, że nasze aplikacje robią dokładnie to, co deklarujemy.
  • Mamy siedzibę w jurysdykcji szanującej prywatność. W przeciwieństwie do AI Big Tech z siedzibą w USA, które podlegają inwazyjnym przepisom o inwigilacji, Lumo ma siedzibę w Europie i jest chronione przez silne przepisy dotyczące prywatności.

Na każdym poziomie Lumo jest zaprojektowane tak, aby zapewniać tę samą użyteczność co inne LLM-y, bez ryzykownych efektów zewnętrznych. Big Tech mógłby budować swoje AI w ten sam sposób. Po prostu decydują się tego nie robić, ponieważ Twoje dane są ich walutą.

Czy dopasowanie AI jest naprawdę zagrożeniem?

Prawda jest po prostu mniej ekscytująca niż chcieliby, abyśmy wierzyli, prezesi Big Tech. Wydaje się mniej prawdopodobne, że AI umożliwi ludziom tworzenie broni biologicznej lub zużyje wszystkie nasze globalne zasoby na produkcję spinaczy, niż to, że po prostu będzie podążać za dyrektywami, które Big Tech już realizuje: Kradzieżą i wykorzystywaniem prywatnych danych.

Nie wierz w szum wokół dopasowania AI. To nie jest zagrożenie, na którym ktokolwiek z nas powinien się skupiać. Inwigilacja, wyzysk jednostek i mniejszych firm oraz skompromitowany ekosystem informacyjny to palące problemy, na które powinniśmy zwracać uwagę, jeśli chodzi o AI.