
A Meta enfrenta uma onda de críticas internas após implementar uma política de monitoramento que rastreia cliques, movimentos do mouse, teclas digitadas e até interações em aplicativos corporativos para treinar seus modelos de inteligência artificial.
Segundo relatos divulgados por veículos internacionais e repercutidos no setor de tecnologia, a iniciativa faz parte de um programa chamado Model Capability Initiative (MCI), criado para coletar exemplos reais de como humanos utilizam computadores no ambiente de trabalho.
A medida gerou forte reação entre funcionários da empresa, que passaram a questionar os limites do monitoramento corporativo e os impactos éticos do uso dessas informações para desenvolvimento de IA. Muitos trabalhadores demonstraram preocupação com privacidade, vigilância interna e até substituição futura de empregos por sistemas automatizados.
De acordo com documentos internos citados em reportagens, o software instalado nos computadores corporativos consegue registrar movimentos do mouse, cliques, atalhos de teclado, tempo de uso de aplicações e, em alguns casos, capturas ocasionais de tela relacionadas às atividades profissionais.
O CEO da Meta, Mark Zuckerberg, justificou a iniciativa afirmando que os dados coletados ajudam a ensinar sistemas de IA a entender como pessoas reais executam tarefas complexas em computadores. Segundo ele, exemplos humanos de navegação, seleção de menus e interação com interfaces são fundamentais para treinar agentes de inteligência artificial mais avançados.
Internamente, porém, a política teria ampliado o clima de tensão dentro da empresa. Relatos apontam que alguns funcionários passaram a enxergar o monitoramento como um processo de treinamento indireto de sistemas que futuramente podem substituir parte da força de trabalho.
Segundo as reportagens, trabalhadores também reclamaram da ausência de opção de opt-out. Nos Estados Unidos, onde o programa foi inicialmente implementado, os funcionários não podem desativar o monitoramento em computadores corporativos.
A Meta afirmou que os dados coletados não serão utilizados para avaliação individual de desempenho e que existem salvaguardas para evitar exposição de conteúdos sensíveis. A empresa também declarou que o objetivo do programa é exclusivamente o treinamento de modelos de inteligência artificial.
Ainda assim, especialistas apontam que a iniciativa reacende debates importantes sobre privacidade no ambiente corporativo, limites da coleta de dados comportamentais e transparência no treinamento de sistemas de IA.
A medida ocorre em meio à corrida das big techs por dados de alta qualidade para desenvolvimento de agentes autônomos e sistemas capazes de interagir diretamente com computadores e aplicações humanas.
Além do monitoramento, a Meta também vem intensificando investimentos em inteligência artificial enquanto conduz reestruturações internas e redução de custos. Relatórios recentes apontam que a empresa prepara cortes que podem atingir cerca de 10% da força de trabalho global.
Especialistas avaliam que o caso evidencia uma nova etapa da disputa por dados no mercado de IA: além de conteúdos públicos da internet, empresas começam a utilizar interações humanas reais em ambientes corporativos para treinar sistemas mais sofisticados de automação e produtividade.



