Meta förbereder sig enligt uppgift för att samla in beteenden hos anställda i USA — inklusive musrörelser, klick, tangenttryckningar och skärmdumpar — för att hjälpa till att träna sina AI-system att navigera i mjukvara på samma sätt som människor gör.

Programmet, som kallas Model Capability Initiative (MCI), är enligt Reuters(nytt fönster) en del av Metas bredare satsning på att bygga AI-agenter som självständigt kan utföra datorbaserade uppgifter, från att navigera i rullgardinsmenyer till att använda tangentbordsgenvägar.

Meta uppgav att de kommer att skydda känslig information men klargjorde inte vilken data som räknas som känsligt material, hur skyddet skulle fungera eller om det skulle omfatta information från tredje part som anställda kan hantera i tjänsten.

Draget kommer samtidigt som Meta förbereder sig för att minska sin personalstyrka med 10 % med start den 20 maj, med fler varsel som enligt uppgift väntas senare i år.

Den nya AI-guldrushen är beteendedata

AI-företag har redan förbrukat enorma mängder offentlig internetdata, och Metas MCI är ett exempel på hur dessa företag går djupare i sin jakt på det senaste AI-träningsmaterialet: beteendedata(nytt fönster).

Beteendedata avser de digitala spår människor lämnar efter sig när de rör sig genom system: klick, tangenttryckningar, pauser, korrigeringar, genvägar och navigeringsmönster som visar hur en uppgift faktiskt utförs. Det är värdefullt för företag eftersom det fångar inte bara resultatet av arbetet utan processen bakom det — något som AI-system för närvarande har svårt att bearbeta och replikera.

Microsoft Recall följer samma logik genom att ta ögonblicksbilder av vad en person gör på sin dator, där Microsoft presenterar det som en form av produktivitetsmjukvara, inte som en datakälla för AI-träning. Men det visar ändå hur bekväma Big Tech har blivit med att förvandla mycket detaljerade beteendespår till något som system kan registrera och lära sig av. I arbetsmiljöer kan funktioner som presenteras som valfria bli svåra att tacka nej till när arbetsgivare kontrollerar företagets policy och formar maktbalansen kring samtycke.

I Metas fall framstår MCI som ytterligare en byggsten i en bredare satsning på att samla in mer intima och avslöjande former av personuppgifter. Företaget använder redan alla Meta AI-interaktioner i Facebook, Instagram, WhatsApp och resten av sitt ekosystem för produktförbättringar, AI-träning och riktade annonser på platser som saknar starkt integritetsskydd likt GDPR.

Övervakning av anställda kan göra arbetet sämre

Ett annat problem med att Meta övervakar anställda för AI-träning är att det kan göra arbetet sämre(nytt fönster). Precis som mjukvara för klickspårning behandlar det tangenttryckningar och musrörelser som meningsfulla signaler. Men även med mer avancerad AI som analyslager är dessa fortfarande dåliga substitut för faktisk prestation, särskilt i kunskapsarbete där kritiskt tänkande, planering, sammankoppling av idéer mellan funktioner och problemlösning ofta är osynligt från utsidan.

När anställda väl vet att dessa signaler fångas upp – särskilt om de misstänker att de en dag kan komma att ersättas av de AI-agenter de hjälper till att förfina – skapar det ett skevt incitament att prioritera att se upptagen ut, eller till och med att medvetet förvränga sitt beteende istället för att utföra meningsfullt arbete. Övervakning och misstro blir normen på arbetsplatsen.

En infrastruktur med integritet i fokus spelar roll

Plattformar som bygger på utvinning gör att varje interaktion börjar se ut som data som väntar på att kommersialiseras, optimeras eller matas in i ett annat system. När AI är inblandat kan det systemet användas för att studera dig, imitera dig och slutligen ersätta dig.

Tjänster med integritet i fokus är viktiga eftersom ju mindre data ett företag kan få åtkomst till, desto mindre utrymme finns det för den här typen av ändamålsglidning. Starka skydd som end-to-end-kryptering hjälper till att begränsa vad en plattform kan se från första början, medan öppen källkod bidrar med transparens genom att möjliggöra oberoende granskning av hur dessa system faktiskt fungerar. Tillsammans hjälper de till att skydda förtroendet hos både anställda och kunder.