Según se informa, Meta se está preparando para capturar el comportamiento de los empleados en EE. UU. —incluidos los movimientos del ratón, los clics, las pulsaciones de teclas y las capturas de pantalla— para ayudar a entrenar sus sistemas de IA a navegar por el software de la misma forma que lo hacen los humanos.

Bautizado como Iniciativa de Capacidad del Modelo (MCI), según Reuters(ventana nueva), el programa forma parte del impulso más amplio de Meta para crear agentes de IA que puedan realizar de forma autónoma tareas basadas en el ordenador, desde navegar por menús desplegables hasta usar atajos de teclado.

Meta afirmó que protegerá la información confidencial, pero no aclaró qué datos se consideran material confidencial, cómo funcionaría esa protección ni si se aplicaría a la información de terceras partes que los empleados puedan gestionar en el trabajo.

La medida se produce mientras Meta se prepara para recortar el 10 % de su plantilla a partir del 20 de mayo, y se informa de que se esperan más despidos a finales de este año.

La nueva fiebre del oro de la IA son los datos de comportamiento

Las empresas de IA ya han consumido enormes cantidades de datos públicos de Internet, y el MCI de Meta es un ejemplo de cómo estas empresas profundizan en su búsqueda del último material de entrenamiento para la IA: datos de comportamiento(ventana nueva).

Los datos de comportamiento se refieren a los rastros digitales que las personas dejan al moverse por los sistemas: los clics, las pulsaciones de teclas, las pausas, las correcciones, los atajos y los patrones de navegación que muestran cómo se realiza realmente una tarea. Son valiosos para las empresas porque capturan no solo el resultado del trabajo, sino el proceso que hay detrás, algo que a los sistemas de IA actuales les cuesta procesar y replicar.

Microsoft Recall sigue la misma lógica al hacer capturas de lo que una persona hace en su ordenador, y Microsoft lo presenta como una forma de software de seguimiento de la productividad, no como un proceso de entrenamiento de IA. Pero sigue demostrando lo cómodas que se sienten las Big Tech convirtiendo rastros de comportamiento muy detallados en algo que los sistemas pueden registrar y de lo que pueden aprender. En entornos laborales, las funciones presentadas como opcionales pueden ser difíciles de rechazar cuando los empleadores controlan la política de la empresa y manejan las dinámicas de poder en torno al consentimiento.

En el caso de Meta, el MCI parece otra pieza clave en un impulso más amplio para capturar formas de datos personales más íntimas y reveladoras. La compañía ya está utilizando todas las interacciones de Meta AI en Facebook, Instagram, WhatsApp y el resto de su ecosistema para mejorar productos, entrenar IA y mostrar anuncios segmentados en lugares que no tienen protecciones de privacidad sólidas como el GDPR.

Rastrear a los empleados puede empeorar el trabajo

Otro problema de que Meta rastree a los empleados para el entrenamiento de IA es que puede empeorar el trabajo(ventana nueva). Al igual que el software de seguimiento de clics, trata las pulsaciones de teclas y los movimientos del ratón como señales significativas. Pero incluso con una IA más avanzada, estas siguen siendo un mal indicador del rendimiento real, especialmente en el trabajo intelectual, donde el pensamiento crítico, la planificación, la conexión de ideas entre distintas funciones y la resolución de problemas suelen ser invisibles desde fuera.

Una vez que los trabajadores saben que se están capturando esas señales —especialmente si sospechan que algún día podrían ser reemplazados por los agentes de IA que están ayudando a perfeccionar— se crea un incentivo perverso para optimizar el hecho de parecer ocupados, o incluso para distorsionar deliberadamente su comportamiento en lugar de realizar un trabajo significativo. La vigilancia y la desconfianza se convierten en la norma del lugar de trabajo.

Una infraestructura que prioriza la privacidad es importante

Las plataformas diseñadas en torno a la extracción hacen que cada interacción empiece a parecer datos que esperan ser monetizados, optimizados o reintroducidos en otro sistema. Cuando la IA está involucrada, ese sistema puede usarse para estudiarte, imitarte y, finalmente, desplazarte.

Los servicios que priorizan la privacidad son importantes porque cuantos menos datos pueda acceder una empresa, menos margen tiene para este tipo de extralimitación de funciones. Protecciones sólidas como el cifrado de extremo a extremo ayudan a limitar lo que una plataforma puede ver en primer lugar, mientras que el código de código abierto aporta transparencia al permitir el escrutinio independiente de cómo funcionan realmente esos sistemas. Juntos, ayudan a proteger la confianza tanto de los empleados como de los clientes.