O CEO da OpenAI, Sam Altman, anunciou no fim da sexta-feira que a empresa firmou um acordo que autoriza o Departamento de Defesa dos Estados Unidos (DoD) a utilizar seus modelos de inteligência artificial em redes classificadas.
O anúncio ocorre após um impasse amplamente divulgado entre o DoD — chamado pela administração de Donald Trump de “Departamento de Guerra” — e a rival da OpenAI, a Anthropic. O Pentágono vinha pressionando empresas do setor, incluindo a Anthropic, para liberar seus sistemas de IA para “todos os usos legais”. Já a Anthropic tentava estabelecer limites claros, especialmente contra vigilância doméstica em larga escala e o uso de armamentos totalmente autônomos.
Em um comunicado extenso publicado na quinta-feira, o CEO da Anthropic, Dario Amodei, afirmou que a companhia “nunca se opôs a operações militares específicas nem buscou restringir o uso de sua tecnologia de maneira pontual”. No entanto, ressaltou que, em situações específicas, a IA pode comprometer — e não proteger — valores democráticos.
A tensão aumentou após a divulgação de uma carta aberta assinada por mais de 60 funcionários da OpenAI e cerca de 300 colaboradores do Google, pedindo que suas empresas apoiassem a posição defendida pela Anthropic.
Sem consenso entre a Anthropic e o Pentágono, Trump criticou publicamente a empresa nas redes sociais, chamando seus integrantes de “radicais de esquerda”, e orientou agências federais a interromperem gradualmente o uso de seus produtos ao longo de seis meses.
Em outra publicação, o secretário de Defesa Pete Hegseth acusou a Anthropic de tentar impor um “poder de veto” sobre decisões operacionais das Forças Armadas dos EUA. Ele também declarou que a empresa seria classificada como risco à cadeia de suprimentos, proibindo contratados e parceiros militares de manter relações comerciais com ela.
Na sexta-feira, a Anthropic informou que ainda não havia recebido comunicação oficial do chamado Departamento de Guerra ou da Casa Branca sobre o status das negociações. A empresa afirmou ainda que contestará judicialmente qualquer classificação formal como risco à cadeia de suprimentos.
OpenAI destaca princípios de segurança no novo contrato
De forma considerada surpreendente por analistas, Altman declarou na rede social X que o novo acordo com o Departamento de Defesa inclui proteções voltadas exatamente aos pontos que geraram divergência com a Anthropic.
Segundo ele, dois princípios centrais da OpenAI são a proibição da vigilância doméstica em massa e a exigência de supervisão humana no uso da força, inclusive em sistemas de armas autônomas. Altman afirmou que o DoD concordou com essas diretrizes, que já estariam refletidas em leis e políticas existentes, e que tais salvaguardas foram incorporadas ao contrato.
O CEO também explicou que a OpenAI desenvolverá mecanismos técnicos para assegurar que seus modelos operem dentro dos limites estabelecidos, algo que também teria sido solicitado pelo Departamento de Defesa. Além disso, engenheiros da empresa trabalharão em conjunto com o Pentágono para apoiar a implementação e reforçar a segurança dos sistemas.
Altman declarou ainda que a OpenAI solicitou que os mesmos termos sejam oferecidos a todas as empresas de IA que firmarem contratos com o governo. Para ele, o ideal seria substituir disputas judiciais e embates políticos por acordos equilibrados e negociados.
De acordo com reportagem da Fortune, Altman teria informado funcionários, em reunião interna, que o governo permitirá que a OpenAI construa sua própria “camada de segurança” para prevenir usos indevidos. Ele também teria garantido que, caso o modelo se recuse a executar determinada tarefa, o governo não obrigará a empresa a realizar essa ação.
O posicionamento público de Altman ocorreu pouco antes da divulgação de que os governos dos Estados Unidos e de Israel iniciaram bombardeios contra o Irã, em meio a declarações de Trump defendendo a queda do regime iraniano.



