Meta forbereder seg angivelig på å fange opp atferden til ansatte basert i USA — inkludert musebevegelser, klikk, tastetrykk og skjermbilder — for å hjelpe til med å trene AI-systemene sine til å navigere i programvare slik mennesker gjør.

Programmet har fått navnet «Model Capability Initiative» (MCI), og i følge Reuters(nytt vindu) er det en del av Metas bredere satsing på å bygge AI-agenter som selvstendig kan utføre databaserte oppgaver, fra å navigere i rullegardinmenyer til å bruke tastatursnarveier.

Meta sa at de vil beskytte sensitiv informasjon, men klargjorde ikke hvilke data som kvalifiserer som sensitivt materiale, hvordan denne beskyttelsen vil fungere, eller om den vil gjelde for informasjon fra tredjeparter som ansatte måtte håndtere i jobben.

Trekket kommer samtidig som Meta forbereder seg på å kutte 10 % av arbeidsstyrken sin fra 20. mai, og det forventes angivelig flere oppsigelser senere i år.

Det nye AI-gullrushet er atferdsdata

AI-selskaper har allerede brent seg gjennom enorme mengder offentlige internettdata, og Metas MCI er et eksempel på at disse selskapene går dypere i jakten på det nyeste AI-treningsfôret: atferdsdata(nytt vindu).

Atferdsdata refererer til de digitale sporene folk etterlater seg når de beveger seg gjennom systemer: klikk, tastetrykk, pauser, rettelser, snarveier og navigasjonsmønstre som viser hvordan en oppgave faktisk blir utført. Det er verdifullt for bedrifter fordi det fanger opp ikke bare resultatet av arbeidet, men prosessen bak det — noe AI-systemer for øyeblikket sliter med å behandle og kopiere.

Microsoft Recall følger samme logikk ved å ta øyeblikksbilder av hva en person gjør på datamaskinen sin, og Microsoft presenterer det som en form for programvare for produktivitetsmåling, ikke en rørledning for AI-trening. Men det viser likevel hvor komfortable Big Tech har blitt med å forvandle detaljerte atferdsspor til noe systemer kan registrere og lære av. I jobbsammenheng kan funksjoner som presenteres som valgfrie, bli vanskelige å avslå når arbeidsgivere kontrollerer selskapets retningslinjer og former maktbalansen rundt samtykke.

I Metas tilfelle virker MCI som nok en byggestein i et bredere forsøk på å fange opp mer intime og avslørende former for personopplysninger. Selskapet bruker allerede alle Meta AI-interaksjoner på tvers av Facebook, Instagram, WhatsApp og resten av økosystemet for produktforbedring, AI-trening og målrettet reklame på steder som ikke har sterkt personvern, slik som GDPR.

Overvåking av ansatte kan gjøre jobben dårligere

Et annet problem med at Meta overvåker ansatte for AI-trening, er at det kan gjøre arbeidet dårligere(nytt vindu). I likhet med programvare for klikksporing behandles tastetrykk og musebevegelser som meningsfulle signaler. Men selv med mer avansert AI på toppen, er disse fremdeles dårlige erstatninger for faktisk ytelse, spesielt i kunnskapsarbeid der kritisk tenkning, planlegging, det å koble til ideer på tvers av funksjoner og problemløsning ofte ser usynlig ut fra utsiden.

Når arbeidere vet at disse signalene fanges opp – spesielt hvis de mistenker at de en dag kan bli erstattet av AI-agentene de hjelper til med å forbedre – skaper det et feilaktig insentiv til å prioritere å se opptatt ut, eller til og med bevisst forvrenge atferden sin i stedet for å gjøre meningsfullt arbeid. Overvåking og mistillit blir normen på arbeidsplassen.

En infrastruktur med personvern i fokus betyr noe

Plattformer bygget rundt utvinning gjør at hver interaksjon ser ut som data som venter på å bli kommersialisert, optimalisert eller matet tilbake i et annet system. Når AI er involvert, kan det systemet brukes til å studere deg, imitere deg og til slutt fortrenge deg.

Tjenester med fokus på personvern betyr noe fordi jo mindre data et selskap har tilgang til, desto mindre rom har det for denne typen formålsutglidning. Sterk beskyttelse som ende-til-ende-kryptering bidrar til å begrense hva en plattform i utgangspunktet kan se, mens åpen kildekode gir åpenhet ved å tillate uavhengig gransking av hvordan disse systemene faktisk fungerer. Sammen bidrar de til å beskytte tilliten til både ansatte og kunder.