Meta forbereder efter sigende at registrere adfærd fra USA-baserede medarbejdere – herunder musebevægelser, klik, tastetryk og skærmbilleder – for at hjælpe med at træne sine AI-systemer til at navigere i software på samme måde som mennesker.
Programmet, der ifølge Reuters(nyt vindue) kaldes Model Capability Initiative (MCI), er en del af Metas bredere satsning på at opbygge AI-agenter, der selvstændigt kan udføre computerbaserede opgaver, lige fra at navigere i rullemenuer til at bruge tastaturgenveje.
Meta sagde, at de vil beskytte følsomme oplysninger, men præciserede ikke, hvilke data der kvalificerer som følsomt materiale, hvordan denne beskyttelse ville fungere, eller om den ville omfatte tredjepartsoplysninger, som medarbejdere måtte håndtere på jobbet.
Tiltaget kommer samtidig med, at Meta forbereder at skære 10 % af sin arbejdsstyrke fra den 20. maj, og der forventes efter sigende flere fyringsrunder senere i år.
Det nye AI-guldfeber er adfærdsdata
AI-virksomheder har allerede brændt sig igennem enorme mængder offentlige internetdata, og Metas MCI er et eksempel på, at disse virksomheder går dybere i deres jagt på det nyeste AI-træningsmateriale: adfærdsdata(nyt vindue).
Adfærdsdata refererer til de digitale spor, folk efterlader, når de bevæger sig gennem systemer: klik, tastetryk, pauser, rettelser, genveje og navigationsmønstre, der viser, hvordan en opgave faktisk bliver udført. Det er værdifuldt for virksomheder, fordi det ikke bare fanger resultatet af arbejdet, men også processen bag det – noget som AI-systemer i øjeblikket kæmper med at bearbejde og efterligne.
Microsoft Recall følger den samme logik ved at tage snapshots af, hvad en person foretager sig på sin computer, hvor Microsoft præsenterer det som en form for produktivitetssporing, ikke en pipeline til AI-træning. Men det viser stadig, hvor bekvemme Big Tech-virksomheder er blevet med at forvandle yderst detaljerede adfærdsspor til noget, som systemer kan registrere og lære af. I arbejdsmiljøer kan funktioner, der er indrammet som valgfrie, blive svære at afvise, når arbejdsgivere kontrollerer virksomhedens politikker og former magtdynamikken omkring samtykke.
I Metas tilfælde virker MCI som endnu en byggesten i en bredere indsats for at indfange mere intime og afslørende former for personoplysninger. Virksomheden bruger allerede alle Meta AI-interaktioner på tværs af Facebook, Instagram, WhatsApp og resten af sit økosystem til produktforbedring, AI-træning og målrettede annoncer på steder, der ikke har stærk beskyttelse af privatlivet som f.eks. GDPR.
Overvågning af medarbejdere kan gøre arbejdet dårligere
Et andet problem med, at Meta overvåger medarbejdere til AI-træning, er, at det kan gøre arbejdet dårligere(nyt vindue). Ligesom software til kliksporing behandler det tastetryk og musebevægelser som betydningsfulde signaler. Men selv med mere avanceret AI lagt ovenpå, er disse stadig dårlige stedfortrædere for faktisk præstation, især i vidensarbejde, hvor kritisk tænkning, planlægning, forbindelse af idéer på tværs af funktioner og problemløsning ofte ser usynlige ud udefra.
Når arbejdstagerne ved, at disse signaler bliver indsamlet – især hvis de har mistanke om, at de en dag kan blive erstattet af de AI-agenter, de hjælper med at forfine – skaber det et uhensigtsmæssigt incitament til at optimere for at se travl ud, eller endda til bevidst at forvrænge deres adfærd i stedet for at udføre meningsfuldt arbejde. Overvågning og mistillid bliver normen på arbejdspladsen.
En infrastruktur med privatlivet først betyder noget
Platforme bygget omkring dataudvinding får enhver interaktion til at ligne data, der venter på at blive monetariseret, optimeret eller ført tilbage til et andet system. Når AI er involveret, kan det system blive brugt til at studere Dem, efterligne Dem og i sidste ende erstatte Dem.
Tjenester med privatlivet først er vigtige, fordi jo mindre data en virksomhed kan få adgang til, desto mindre plads har den til denne form for formålsudskridning. Stærk beskyttelse som end-to-end kryptering hjælper med at begrænse, hvad en platform overhovedet kan se, mens open source-kode tilføjer gennemsigtighed ved at give mulighed for uafhængig kontrol af, hvordan disse systemer faktisk fungerer. Sammen hjælper de med at beskytte tilliden hos både medarbejdere og kunder.






