Secondo quanto riferito, Meta si starebbe preparando a catturare il comportamento dei dipendenti con sede negli Stati Uniti — inclusi i movimenti del mouse, i clic, i tasti premuti e gli screenshot — per aiutare ad addestrare i suoi sistemi di IA a navigare nel software come fanno gli esseri umani.
Denominato Model Capability Initiative (MCI), secondo Reuters(nuova finestra), il programma fa parte della più ampia spinta di Meta per costruire agenti IA in grado di eseguire autonomamente attività basate su computer, dalla navigazione nei menu a discesa all’uso delle scorciatoie da tastiera.
Meta ha dichiarato che proteggerà le informazioni sensibili, ma non ha chiarito quali dati si possano qualificare come materiale sensibile, come funzionerebbe tale protezione o se si estenderebbe alle informazioni di terze parti che i dipendenti potrebbero gestire sul lavoro.
La mossa arriva mentre Meta si prepara a tagliare il 10% della sua forza lavoro a partire dal 20 maggio, con ulteriori licenziamenti attesi per la fine dell’anno.
La nuova corsa all’oro dell’IA sono i dati comportamentali
Le aziende di IA hanno già consumato enormi quantità di dati pubblici su internet e l’MCI di Meta è un esempio di come queste aziende stiano scavando più a fondo nella ricerca dell’ultimo nutrimento per l’addestramento dell’IA: i dati comportamentali(nuova finestra).
I dati comportamentali si riferiscono alle tracce digitali che le persone lasciano mentre si muovono attraverso i sistemi: clic, tasti premuti, pause, correzioni, scorciatoie e modelli di navigazione che mostrano come viene effettivamente svolto un compito. Sono preziosi per le aziende perché catturano non solo il risultato del lavoro, ma il processo che c’è dietro, qualcosa che i sistemi di IA attualmente faticano a elaborare e replicare.
Microsoft Recall segue la stessa logica scattando istantanee di ciò che una persona fa sul proprio computer, con Microsoft che lo presenta come una forma di software di monitoraggio della produttività, non come una pipeline di addestramento per l’IA. Ma mostra comunque quanto le Big Tech si sentano a proprio agio nel trasformare tracce comportamentali altamente dettagliate in qualcosa che i sistemi possono registrare e da cui possono imparare. Negli ambienti di lavoro, le funzionalità presentate come opzionali possono diventare difficili da rifiutare quando i datori di lavoro controllano la policy aziendale e plasmano le dinamiche di potere intorno al consenso.
Nel caso di Meta, l’MCI sembra un altro tassello di una spinta più ampia per catturare forme più intime e rivelatrici di dati personali. L’azienda sta già utilizzando tutte le interazioni con l’IA di Meta su Facebook, Instagram, WhatsApp e il resto del suo ecosistema per il miglioramento dei prodotti, l’addestramento dell’IA e annunci mirati in luoghi che non hanno forti protezioni della privacy come il GDPR.
Monitorare i dipendenti può peggiorare il lavoro
Un altro problema con il monitoraggio dei dipendenti da parte di Meta per l’addestramento dell’IA è che può peggiorare il lavoro(nuova finestra). Come i software di tracciamento dei clic, considera i tasti premuti e i movimenti del mouse come segnali significativi. Ma anche con un’IA più avanzata, questi restano scarsi indicatori delle prestazioni effettive, in particolare nel lavoro intellettuale dove il pensiero critico, la pianificazione, la connessione di idee tra diverse funzioni e la risoluzione di problemi spesso risultano invisibili dall’esterno.
Una volta che i lavoratori sanno che quei segnali vengono catturati — specialmente se sospettano che un giorno potrebbero essere sostituiti dagli agenti IA che stanno aiutando a perfezionare — si crea un incentivo perverso a ottimizzare l’apparenza di operosità, o addirittura a distorcere deliberatamente il proprio comportamento invece di svolgere un lavoro significativo. La sorveglianza e la sfiducia diventano la norma sul posto di lavoro.
Un’infrastruttura basata innanzitutto sulla privacy è importante
Le piattaforme costruite intorno all’estrazione fanno sì che ogni interazione inizi a sembrare un dato in attesa di essere monetizzato, ottimizzato o reimmesso in un altro sistema. Quando è coinvolta l’IA, quel sistema può essere usato per studiarti, imitarti e, infine, sostituirti.
I servizi basati sulla privacy sono importanti perché meno dati un’azienda può accedere, meno spazio ha per questo tipo di espansione impropria delle finalità. Protezioni forti come la crittografia end-to-end aiutano a limitare ciò che una piattaforma può vedere fin dall’inizio, mentre il codice open source aggiunge trasparenza consentendo un controllo indipendente su come funzionano effettivamente quei sistemi. Insieme, aiutano a proteggere la fiducia sia dei dipendenti che dei clienti.






