Meta se pregătește, se pare, să înregistreze comportamentul angajaților din SUA — inclusiv mișcările mouse-ului, clicurile, apăsările de taste și capturile de ecran — pentru a ajuta la antrenarea sistemelor sale de AI să navigheze în software la fel ca oamenii.

Denumit Model Capability Initiative (MCI), conform Reuters(fereastră nouă), programul face parte din efortul mai amplu al Meta de a construi agenți AI care pot îndeplini în mod autonom sarcini pe computer, de la navigarea în meniurile derulante până la utilizarea combinațiilor de taste.

Meta a declarat că va proteja informațiile sensibile, dar nu a clarificat ce date se califică drept materiale sensibile, cum ar funcționa acea protecție sau dacă s-ar extinde la informațiile terților pe care angajații le-ar putea gestiona la locul de muncă.

Această măsură vine în timp ce Meta se pregătește să reducă 10% din forța sa de muncă începând cu 20 mai, fiind așteptate și alte concedieri mai târziu în acest an.

Noua goană după aur a AI sunt datele comportamentale

Companiile de IA au consumat deja cantități uriașe de date de pe internetul public, iar MCI de la Meta este un exemplu de companii care merg mai departe în căutarea celor mai recente resurse de instruire pentru IA: date comportamentale(fereastră nouă).

Datele comportamentale se referă la urmele digitale pe care oamenii le lasă în urmă pe măsură ce navighează prin sisteme: clicurile, apăsările de taste, pauzele, corecțiile, scurtăturile și modelele de navigare care arată cum este îndeplinită de fapt o sarcină. Acestea sunt valoroase pentru companii deoarece surprind nu doar rezultatul muncii, ci și procesul din spatele acesteia — ceva ce sistemele AI se chinuie în prezent să proceseze și să replice.

Microsoft Recall urmează aceeași logică prin realizarea unor capturi de ecran cu ceea ce face o persoană pe computerul său, Microsoft prezentându-l ca pe un software de urmărire a productivității, nu ca pe o rețea de instruire AI. Dar acesta demonstrează încă o dată cât de confortabil a devenit mediul Big Tech cu transformarea urmelor comportamentale extrem de detaliate în ceva ce sistemele pot înregistra și din care pot învăța. În mediile de lucru, caracteristicile prezentate ca fiind opționale pot deveni greu de refuzat atunci când angajatorii controlează politica companiei și modelează dinamica puterii în ceea ce privește consimțământul.

În cazul Meta, MCI pare a fi un alt element constitutiv dintr-un efort mai larg de a colecta forme mai intime și mai revelatoare de date cu caracter personal. Compania utilizează deja toate interacțiunile Meta AI din Facebook, Instagram, WhatsApp și restul ecosistemului său pentru îmbunătățirea produselor, instruirea AI și anunțuri direcționate în locuri care nu au protecții solide ale confidențialității, cum ar fi GDPR.

Monitorizarea angajaților poate înrăutăți condițiile de muncă

O altă problemă legată de faptul că Meta își monitorizează angajații pentru instruirea AI este că acest lucru poate înrăutăți munca(fereastră nouă). La fel ca software-ul de urmărire a clicurilor, acesta tratează apăsările de taste și mișcările mouse-ului ca semnale semnificative. Dar chiar și cu o tehnologie AI mai avansată suprapusă, acestea rămân indicatori slabi pentru performanța reală, în special în activitățile intelectuale unde gândirea critică, planificarea, conectarea ideilor între diverse funcții și rezolvarea problemelor par adesea invizibile din exterior.

Odată ce lucrătorii știu că acele semnale sunt captate — mai ales dacă suspectează că într-o zi ar putea fi înlocuiți de agenții AI pe care îi ajută să îi perfecționeze — se creează un stimulent pervers de a optimiza aparența de a fi ocupat, sau chiar de a distorsiona deliberat comportamentul în loc de a depune o muncă semnificativă. Supravegherea și neîncrederea devin norma la locul de muncă.

O infrastructură axată pe confidențialitate contează

Platformele construite în jurul extracției fac ca fiecare interacțiune să înceapă să pară o dată care așteaptă să fie monetizată, optimizată sau reintrodusă într-un alt sistem. Atunci când AI-ul este implicat, acel sistem poate fi utilizat pentru a vă studia, a vă imita și, în cele din urmă, pentru a vă înlocui.

Serviciile axate pe confidențialitate sunt importante deoarece, cu cât o companie poate accesa mai puține date, cu atât are mai puțin spațiu pentru acest tip de deviere de la misiune. Protecțiile solide, precum criptarea de la un capăt la altul, ajută la limitarea a ceea ce o platformă poate vedea în primă instanță, în timp ce codul sursă deschis adaugă transparență prin permiterea examinării independente a modului în care funcționează de fapt acele sisteme. Împreună, acestea ajută la protejarea încrederii atât a angajaților, cât și a clienților.