Meta bereidt zich naar verluidt voor op het vastleggen van het gedrag van in de VS gevestigde medewerkers — inclusief muisbewegingen, klikken, toetsaanslagen en schermafbeeldingen — om AI-systemen te trainen in het navigeren door software zoals mensen dat doen.

Volgens Reuters(nieuw venster) maakt het programma, genaamd het Model Capability Initiative (MCI), deel uit van Meta’s bredere streven om AI-agenten te bouwen die autonoom computergestuurde taken kunnen uitvoeren, van het navigeren door vervolgkeuzemenu’s tot het gebruiken van toetsenbordsneltoetsen.

Meta zei dat het gevoelige informatie zal beschermen, maar verduidelijkte niet welke gegevens als gevoelig materiaal worden beschouwd, hoe die bescherming zou werken of dat deze ook geldt voor informatie van derden die werknemers tijdens hun werk kunnen verwerken.

De stap komt op het moment dat Meta zich voorbereidt om vanaf 20 mei 10% van het personeelsbestand te schrappen, waarbij naar verluidt later dit jaar meer ontslagen worden verwacht.

De nieuwe AI-goudkoorts zijn gedragsgegevens

AI-bedrijven hebben al enorme hoeveelheden openbare internetgegevens verbruikt, en Meta’s MCI is een voorbeeld van hoe deze bedrijven dieper gaan in hun jacht op het nieuwste AI-trainingsmateriaal: gedragsgegevens(nieuw venster).

Gedragsgegevens verwijzen naar de digitale sporen die mensen achterlaten terwijl ze zich door systemen bewegen: de klikken, toetsaanslagen, pauzes, correcties, sneltoetsen en navigatiepatronen die laten zien hoe een taak daadwerkelijk wordt uitgevoerd. Het is waardevol voor bedrijven omdat het niet alleen de output van het werk vastlegt, maar ook het proces erachter — iets waar AI-systemen momenteel moeite mee hebben om te verwerken en te repliceren.

Microsoft Recall volgt dezelfde logica door momentopnamen te maken van wat een persoon op de computer doet, waarbij Microsoft dit presenteert als een vorm van productiviteitstracking-software en niet als een AI-trainingspijplijn. Maar het laat nog steeds zien hoe comfortabel Big Tech is geworden met het omzetten van uiterst gedetailleerde gedragssporen in iets dat systemen kunnen vastleggen en waarvan ze kunnen leren. In werkomgevingen kunnen functies die als optioneel worden gepresenteerd, moeilijk te weigeren zijn wanneer werkgevers het bedrijfsbeleid bepalen en de machtsdynamiek rond toestemming vormgeven.

In het geval van Meta lijkt MCI een volgend bouwsteentje in een bredere poging om meer intieme en onthullende vormen van persoonsgegevens te verzamelen. Het bedrijf gebruikt reeds alle Meta AI-interacties op Facebook, Instagram, WhatsApp en de rest van zijn ecosysteem voor productverbetering, AI-training en gerichte advertenties op plekken die geen sterke privacybescherming hebben, zoals de GDPR.

Het volgen van werknemers kan het werk verslechteren

Een ander probleem met het feit dat Meta werknemers volgt voor AI-training, is dat het het werk slechter kan maken(nieuw venster). Net als klik-tracking-software behandelt het toetsaanslagen en muisbewegingen als betekenisvolle signalen. Maar zelfs met meer geavanceerde AI-lagen daarbovenop, blijven dit matige vervangers voor werkelijke prestaties, met name in kenniswerk waar kritisch denken, plannen, het verbinden van ideeën over verschillende functies heen en het oplossen van problemen van buitenaf vaak onzichtbaar lijken.

Zodra werknemers weten dat die signalen worden vastgelegd — vooral als ze vermoeden dat ze op een dag kunnen worden vervangen door de AI-agenten die ze helpen verfijnen — creëert dit een perverse prikkel om te optimaliseren voor ‘er druk uitzien’, of zelfs om hun gedrag opzettelijk te vervormen in plaats van zinvol werk te verrichten. Toezicht en wantrouwen worden de norm op de werkvloer.

Een privacy-eerst infrastructuur is van belang

Platforms die zijn gebouwd rond extractie zorgen ervoor dat elke interactie begint te lijken op gegevens die wachten om te worden gemonetariseerd, geoptimaliseerd of in een ander systeem te worden ingevoerd. Wanneer AI erbij betrokken is, kan dat systeem worden gebruikt om u te bestuderen, u te imiteren en u uiteindelijk te vervangen.

Privacy-eerst diensten zijn belangrijk omdat hoe minder gegevens een bedrijf kan inzien, hoe minder ruimte er is voor dit soort ‘mission creep’. Sterke bescherming zoals end-to-end versleuteling helpt te beperken wat een platform überhaupt kan zien, terwijl open-source code transparantie toevoegt door onafhankelijke controle mogelijk te maken van hoe die systemen daadwerkelijk werken. Samen helpen ze het vertrouwen van zowel werknemers als klanten te beschermen.