Según se informa, Meta se está preparando para capturar el comportamiento de los empleados con sede en EE. UU., incluidos los movimientos del ratón, los clics, las pulsaciones de teclas y las capturas de pantalla, para ayudar a entrenar sus sistemas de IA a navegar por el software de la misma forma que lo hacen los humanos.
Bautizado como Model Capability Initiative (MCI), según Reuters(nueva ventana), el programa forma parte del impulso más amplio de Meta para crear agentes de IA que puedan realizar de forma autónoma tareas informáticas, desde navegar por menús desplegables hasta utilizar atajos de teclado.
Meta afirmó que protegerá la información sensible, pero no aclaró qué datos califican como material sensible, cómo funcionaría esa protección o si se extendería a la información de terceros que los empleados puedan manejar en el trabajo.
La medida se produce mientras Meta se prepara para recortar el 10 % de su plantilla a partir del 20 de mayo, y se espera que se produzcan más despidos a finales de este año.
La nueva fiebre del oro de la IA son los datos de comportamiento
Las empresas de IA ya han consumido ingentes cantidades de datos públicos de internet, y la iniciativa MCI de Meta es un ejemplo de cómo estas empresas profundizan en su búsqueda del último alimento para el entrenamiento de la IA: los datos de comportamiento(nueva ventana).
Los datos de comportamiento se refieren a los rastros digitales que las personas dejan a su paso por los sistemas: los clics, las pulsaciones de teclas, las pausas, las correcciones, los atajos y los patrones de navegación que muestran cómo se realiza realmente una tarea. Son valiosos para las empresas porque captan no solo el resultado del trabajo, sino el proceso que hay detrás, algo que los sistemas de IA actuales tienen dificultades para procesar y replicar.
Microsoft Recall sigue la misma lógica al tomar capturas de lo que una persona hace en su computadora; Microsoft lo presenta como una forma de software de seguimiento de la productividad, no como una canalización de entrenamiento de IA. Sin embargo, esto demuestra lo cómoda que se siente la gran tecnología al convertir rastros de comportamiento sumamente detallados en algo que los sistemas pueden registrar y de lo cual pueden aprender. En entornos laborales, las funciones presentadas como opcionales pueden volverse difíciles de rechazar cuando los empleadores controlan la política de la empresa y definen la dinámica de poder en torno al consentimiento.
En el caso de Meta, MCI parece ser otra pieza clave en una estrategia más amplia para capturar formas más íntimas y reveladoras de datos personales. La empresa ya está utilizando todas las interacciones de Meta AI en Facebook, Instagram, WhatsApp y el resto de su ecosistema para la mejora de productos, el entrenamiento de IA y anuncios segmentados en lugares que no cuentan con protecciones de privacidad sólidas como el GDPR.
Rastrear a los empleados puede empeorar el trabajo
Otro problema de que Meta rastree a los empleados para el entrenamiento de IA es que puede empeorar el trabajo(nueva ventana). Al igual que el software de seguimiento de clics, trata las pulsaciones de teclas y los movimientos del mouse como señales significativas. Pero incluso con una IA más avanzada aplicada, estos siguen siendo sustitutos deficientes del rendimiento real, particularmente en el trabajo intelectual donde el pensamiento crítico, la planificación, la conexión de ideas entre funciones y la resolución de problemas suelen ser invisibles desde el exterior.
Una vez que los trabajadores saben que esas señales están siendo capturadas (especialmente si sospechan que algún día podrían ser reemplazados por los agentes de IA que están ayudando a perfeccionar), se crea un incentivo perverso para optimizar la apariencia de estar ocupado, o incluso para distorsionar deliberadamente su comportamiento en lugar de realizar un trabajo significativo. La vigilancia y la desconfianza se convierten en la norma del lugar de trabajo.
La importancia de una infraestructura que priorice la privacidad
Las plataformas diseñadas para la extracción hacen que cada interacción parezca un dato a la espera de ser monetizado, optimizado o reintroducido en otro sistema. Cuando la IA está involucrada, ese sistema puede usarse para estudiarlo, imitarlo y, finalmente, desplazarlo.
Los servicios que priorizan la privacidad son importantes porque cuantos menos datos pueda acceder una empresa, menos margen tiene para este tipo de extralimitación de funciones. Protecciones sólidas como el cifrado de extremo a extremo ayudan a limitar lo que una plataforma puede ver en primer lugar, mientras que el código de fuente abierta añade transparencia al permitir el escrutinio independiente de cómo funcionan realmente esos sistemas. Juntos, ayudan a proteger la confianza tanto de los empleados como de los clientes.






