A Meta estará alegadamente a preparar-se para captar o comportamento dos funcionários baseados nos EUA — incluindo movimentos do rato, cliques, batidas de teclas e capturas de ecrã — para ajudar a treinar os seus sistemas de IA a navegar no software da mesma forma que os humanos.

Denominado Model Capability Initiative (MCI), de acordo com a Reuters(nova janela), o programa faz parte do esforço mais amplo da Meta para criar agentes de IA que possam realizar autonomamente tarefas baseadas em computador, desde navegar em menus pendentes até utilizar atalhos de teclado.

A Meta afirmou que irá proteger informações sensíveis, mas não clarificou quais os dados que se qualificam como material sensível, como funcionaria essa proteção ou se a mesma se estenderia a informações de terceiros com as quais os funcionários possam lidar no trabalho.

A medida surge numa altura em que a Meta se prepara para cortar 10% da sua força de trabalho a partir de 20 de maio, esperando-se, alegadamente, mais despedimentos ainda este ano.

A nova corrida ao ouro da IA são os dados comportamentais

As empresas de IA já consumiram enormes quantidades de dados públicos da internet, e o MCI da Meta é um exemplo destas empresas a irem mais longe na sua busca pelo mais recente alimento para treino de IA: dados comportamentais(nova janela).

Dados comportamentais referem-se aos vestígios digitais que as pessoas deixam para trás à medida que se movem pelos sistemas: os cliques, batidas de teclas, pausas, correções, atalhos e padrões de navegação que mostram como uma tarefa é realmente executada. São valiosos para as empresas porque captam não apenas o resultado do trabalho, mas o processo por trás dele — algo que os sistemas de IA atualmente têm dificuldade em processar e replicar.

Microsoft Recall segue a mesma lógica ao tirar capturas do que uma pessoa faz no seu computador, com a Microsoft a apresentá-lo como uma forma de software de monitorização de produtividade, e não como uma estrutura de treino de IA. Mas continua a mostrar quão confortáveis as Big Tech se tornaram ao transformar vestígios comportamentais altamente detalhados em algo que os sistemas podem registar e do qual podem aprender. Em ambientes de trabalho, as funcionalidades apresentadas como opcionais podem tornar-se difíceis de recusar quando os empregadores controlam a política da empresa e moldam a dinâmica de poder em torno do consentimento.

No caso da Meta, o MCI parece ser outro elemento de uma estratégia mais ampla para capturar formas mais íntimas e reveladoras de dados pessoais. A empresa já está a utilizar todas as interações da Meta AI no Facebook, Instagram, WhatsApp e no resto do seu ecossistema para melhoria de produtos, treino de IA e anúncios direcionados em locais que não têm proteções de privacidade fortes, como o GDPR.

A monitorização de funcionários pode piorar o trabalho

Outro problema com a Meta a monitorizar funcionários para o treino de IA é que isso pode piorar o trabalho(nova janela). Tal como o software de monitorização de cliques, trata as teclas premidas e os movimentos do rato como sinais significativos. Mas mesmo com uma IA mais avançada por cima, estes continuam a ser substitutos pobres para o desempenho real, particularmente no trabalho de conhecimento, onde o pensamento crítico, o planeamento, a ligação de ideias entre funções e a resolução de problemas parecem frequentemente invisíveis do exterior.

Assim que os trabalhadores sabem que esses sinais estão a ser capturados — especialmente se suspeitarem que um dia podem ser substituídos pelos agentes de IA que estão a ajudar a aperfeiçoar — cria-se um incentivo perverso para otimizar a aparência de estar ocupado, ou até mesmo para distorcer deliberadamente o seu comportamento em vez de realizarem um trabalho significativo. A vigilância e a desconfiança tornam-se a norma no local de trabalho.

Uma infraestrutura que privilegia a privacidade é importante

As plataformas construídas em torno da extração fazem com que cada interação comece a parecer dados à espera de serem monetizados, otimizados ou alimentados noutro sistema. Quando a IA está envolvida, esse sistema pode ser usado para o estudar, imitar e, eventualmente, substituir.

Os serviços que privilegiam a privacidade são importantes porque, quanto menos dados uma empresa puder aceder, menos margem terá para este tipo de desvio de finalidade. Proteções fortes como a encriptação ponto a ponto ajudam a limitar o que uma plataforma pode ver, à partida, enquanto o código de fonte aberta acrescenta transparência ao permitir o escrutínio independente de como esses sistemas funcionam realmente. Juntos, ajudam a proteger a confiança de funcionários e clientes.