A Amazon informou ter identificado centenas de milhares de arquivos com suspeita de envolverem abuso sexual infantil em bases de dados utilizadas para o treinamento de seus modelos de inteligência artificial. O material foi removido antes de qualquer uso e reportado ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), órgão americano de proteção à infância.
O grande volume de notificações provocou um aumento de 15 vezes nas denúncias relacionadas à IA em 2025, sendo a Amazon responsável pela maioria dos alertas enviados. Apesar da iniciativa, especialistas e autoridades apontam que a falta de informações sobre a origem dos arquivos compromete a eficácia das investigações e dificulta a identificação de criminosos ou o resgate de vítimas.
Relatórios em massa e impacto nas investigações
Somente em 2025, a Amazon encaminhou mais de um milhão de relatórios de possível abuso infantil ligados a sistemas de IA, um salto significativo em relação aos cerca de 64 mil registros enviados em 2024. A empresa afirma que os dados analisados foram coletados de fontes externas e da internet aberta, e que não dispõe de metadados técnicos suficientes para permitir o rastreamento dos responsáveis.
O NCMEC, no entanto, destaca que outras empresas do setor, como Google e OpenAI, enviam um número menor de denúncias, mas com informações técnicas mais completas, o que possibilita investigações concretas e ações policiais efetivas.
Sensibilidade excessiva e falsos positivos
Para justificar o alto volume de alertas, a Amazon afirma utilizar um sistema de detecção com configuração extremamente sensível, adotado para evitar que qualquer conteúdo ilegal passe despercebido. Essa abordagem, porém, gera um grande número de falsos positivos, casos que aparentam crime, mas não se confirmam.
Segundo o NCMEC, apenas sinalizar a existência de possível material ilegal, sem fornecer dados que indiquem sua origem, não contribui para a proteção imediata de crianças em risco. A organização, que recebe financiamento da própria Amazon, cobra maior transparência sobre os processos de curadoria, limpeza e organização dos bancos de dados usados para treinar modelos de IA.
Riscos éticos no treinamento de modelos de IA
Especialistas alertam que a corrida para lançar novas ferramentas de inteligência artificial tem levado empresas a coletarem volumes massivos de dados da internet, muitas vezes sem verificações profundas de segurança. Para David Thiel, pesquisador da área, a prioridade tem sido a velocidade, e não uma análise ética rigorosa sobre o conteúdo utilizado no treinamento dos modelos.
O uso de dados provenientes de terceiros ou coletados automaticamente da web dilui a responsabilidade sobre a origem do material. Além disso, pesquisadores alertam que a exposição a conteúdos suspeitos pode fazer com que modelos de IA aprendam padrões abusivos, passando a sexualizar imagens de crianças reais ou até gerar imagens sintéticas de abuso.
A Amazon afirma que, até o momento, suas IAs não geraram imagens de abuso a partir desses dados. A detecção foi realizada por meio de um sistema de hashing, que compara imagens com um banco de dados de conteúdos criminosos já conhecidos. A empresa informou ainda que pretende divulgar informações mais detalhadas sobre suas práticas de segurança em março de 2026.
Fonte: Bloomberg



