
O governo dos Estados Unidos anunciou novos acordos com grandes empresas de inteligência artificial para realizar testes de segurança em modelos avançados de IA antes que eles sejam disponibilizados ao público.
As parcerias foram firmadas pelo Departamento de Comércio dos Estados Unidos e envolvem empresas como Google, Microsoft, xAI, OpenAI e Anthropic.
Os testes serão conduzidos pelo Center for AI Standards and Innovation, conhecido pela sigla CAISI, ligado ao National Institute of Standards and Technology (NIST).
O principal objetivo da iniciativa é avaliar riscos associados aos modelos de IA em áreas consideradas críticas, incluindo segurança cibernética, armas biológicas, armas químicas e possíveis impactos à segurança nacional.
Segundo o diretor do CAISI, Chris Fall, avaliações independentes e rigorosas são fundamentais para compreender as capacidades reais de sistemas avançados de inteligência artificial antes de sua adoção em larga escala.
O centro já realizou cerca de 40 avaliações envolvendo modelos de IA, incluindo sistemas que ainda não haviam sido lançados publicamente.
Entre os acordos anunciados, a Microsoft afirmou que trabalhará junto ao governo americano no desenvolvimento de metodologias para testar IA em cenários adversos, simulando tentativas de uso malicioso, comportamentos inesperados e exploração ofensiva dos modelos.
A empresa também mantém colaboração semelhante com o equivalente britânico do CAISI, conhecido como AISI.
Já a OpenAI confirmou que entregou o modelo ChatGPT 5.5 ao governo americano antes do lançamento público para avaliações relacionadas à segurança nacional. A empresa também revelou o desenvolvimento do GPT-5.5-Cyber, versão focada em defesa cibernética inicialmente liberada para um grupo restrito de usuários.
Segundo o CAISI, os acordos anteriormente firmados com OpenAI e Anthropic ainda durante o governo Biden foram renegociados, embora os detalhes dessas mudanças não tenham sido divulgados oficialmente.
O anúncio também marca uma mudança relevante na postura do governo do presidente Donald Trump em relação à regulamentação da inteligência artificial.
Historicamente, Trump vinha defendendo uma abordagem menos regulatória para o setor, argumentando que excesso de regras poderia prejudicar a competitividade americana e favorecer o avanço tecnológico da China no setor de IA.
Em março, o governo americano apresentou um framework nacional de políticas de inteligência artificial voltado à aceleração da inovação e remoção de barreiras regulatórias.
A nova estratégia indica que a administração encontrou uma forma de ampliar a supervisão sobre modelos avançados sem necessariamente criar novos órgãos reguladores específicos para IA.
Especialistas avaliam que o movimento reflete uma preocupação crescente de governos com os impactos de modelos capazes de automatizar tarefas ofensivas, auxiliar no desenvolvimento de malware, produzir conteúdo sensível ou apoiar pesquisas relacionadas a agentes químicos e biológicos.
Ao mesmo tempo, o modelo adotado pelos EUA tenta equilibrar inovação e segurança, permitindo que empresas continuem desenvolvendo sistemas avançados enquanto o governo amplia sua capacidade de análise de riscos antes da liberação pública dessas tecnologias.



