Według doniesień Meta przygotowuje się do rejestrowania zachowań pracowników w USA – w tym ruchów myszy, kliknięć, naciśnięć klawiszy i zrzutów ekranu – aby pomóc w trenowaniu swoich systemów AI w obsłudze oprogramowania w taki sam sposób, jak robią to ludzie.

Jak podaje Reuters(nowe okno), program o nazwie Model Capability Initiative (MCI) jest częścią szerszych działań firmy Meta na rzecz budowy agentów AI, którzy mogą autonomicznie wykonywać zadania na komputerze, od poruszania się po rozwijanych menu po używanie skrótów klawiszowych.

Firma Meta oświadczyła, że będzie chronić wrażliwe informacje, ale nie wyjaśniła, jakie dane kwalifikują się jako materiały wrażliwe, jak ta ochrona miałaby działać ani czy obejmie informacje od stron trzecich, które pracownicy mogą przetwarzać w pracy.

Ruch ten następuje w momencie, gdy Meta przygotowuje się do redukcji 10% swojej siły roboczej od 20 maja, przy czym kolejne zwolnienia mają nastąpić jeszcze w tym roku.

Nową gorączką złota w świecie AI są dane behawioralne

Firmy zajmujące się sztuczną inteligencją spaliły już ogromne ilości publicznych danych z internetu, a MCI firmy Meta jest przykładem tego, jak firmy te w pogoni za nowymi zasobami do trenowania AI sięgają głębiej: po dane behawioralne(nowe okno).

Dane behawioralne odnoszą się do cyfrowych śladów, które ludzie zostawiają po sobie, poruszając się w systemach: kliknięć, naciśnięć klawiszy, pauz, poprawek, skrótów i wzorców nawigacji, które pokazują, jak zadanie jest faktycznie wykonywane. Są one cenne dla firm, ponieważ rejestrują nie tylko wynik pracy, ale także proces, który za nią stoi – coś, z czego przetwarzaniem i powielaniem obecne systemy AI mają trudności.

Microsoft Recall działa na tej samej zasadzie, robiąc zrzuty ekranu tego, co użytkownik robi na swoim komputerze, przy czym Microsoft przedstawia to jako rodzaj oprogramowania do śledzenia produktywności, a nie potok szkoleniowy AI. Pokazuje to jednak, jak swobodnie Big Tech podchodzi do zamieniania bardzo szczegółowych śladów behawioralnych w coś, co systemy mogą rejestrować i z czego mogą się uczyć. W środowisku pracy funkcje przedstawiane jako opcjonalne mogą stać się trudne do odrzucenia, gdy pracodawcy kontrolują zasady firmy i kształtują dynamikę władzy wokół zgody.

W przypadku Mety MCI wydaje się kolejnym elementem szerszego dążenia do przejmowania bardziej intymnych i odkrywczych form danych osobowych. Firma już wykorzystuje wszystkie interakcje Meta AI w serwisach Facebook, Instagram, WhatsApp i w reszcie swojego ekosystemu do ulepszania produktów, trenowania AI i reklam ukierunkowanych w miejscach, które nie mają silnej ochrony prywatności, takich jak RODO.

Śledzenie pracowników może pogorszyć jakość pracy

Innym problemem związanym ze śledzeniem pracowników przez Metę na potrzeby trenowania AI jest to, że może to pogorszyć jakość pracy(nowe okno). Podobnie jak oprogramowanie do śledzenia kliknięć, traktuje ono uderzenia w klawisze i ruchy myszy jako istotne sygnały. Jednak nawet z zaawansowaną sztuczną inteligencją są one nadal słabymi zamiennikami rzeczywistej wydajności, szczególnie w pracy opartej na wiedzy, gdzie krytyczne myślenie, planowanie, łączenie pomysłów między funkcjami i rozwiązywanie problemów często wyglądają na niewidoczne z zewnątrz.

Gdy pracownicy wiedzą, że te sygnały są rejestrowane — zwłaszcza jeśli podejrzewają, że mogą pewnego dnia zostać zastąpieni przez agentów AI, których pomagają udoskonalać — tworzy to przewrotną zachętę do optymalizacji pod kątem sprawiania wrażenia zajętych, a nawet do celowego zniekształcania swoich zachowań zamiast wykonywania sensownej pracy. Nadzór i brak zaufania stają się normą w miejscu pracy.

Infrastruktura stawiająca na prywatność ma znaczenie

Platformy zbudowane wokół wydobywania danych sprawiają, że każda interakcja zaczyna wyglądać jak dane czekające na monetyzację, optymalizację lub wprowadzenie do innego systemu. Gdy w grę wchodzi AI, system ten może zostać użyty do badania Cię, naśladowania Cię i ostatecznie zastąpienia Cię.

Usługi stawiające na prywatność są ważne, ponieważ im mniej danych firma może uzyskać, tym mniej ma miejsca na tego rodzaju nadużycia celu. Silne zabezpieczenia, takie jak szyfrowanie end-to-end, pomagają ograniczyć to, co platforma może zobaczyć w pierwszej kolejności, podczas gdy kod o otwartym źródle zwiększa przejrzystość, umożliwiając niezależną kontrolę tego, jak te systemy faktycznie działają. Razem pomagają chronić zaufanie zarówno pracowników, jak i klientów.