IA & InovaçãoNews
Tendência

OpenAI fecha acordo com Departamento de Defesa e revela detalhes

Sam Altman admite que negociação foi acelerada, enquanto empresa reforça “linhas vermelhas” sobre vigilância em massa e armas autônomas

O CEO da OpenAI, Sam Altman, reconheceu que o acordo firmado com o Departamento de Defesa dos Estados Unidos foi conduzido de forma “claramente acelerada” e que a percepção pública “não ficou positiva”.

A movimentação ocorreu após as negociações entre a Anthropic e o Pentágono não avançarem. Na sexta-feira, o presidente Donald Trump determinou que órgãos federais deixassem de utilizar a tecnologia da Anthropic após um período de transição de seis meses. Já o secretário de Defesa, Pete Hegseth, classificou a empresa como um possível risco à cadeia de suprimentos.

Diante desse cenário, a OpenAI anunciou rapidamente que havia firmado seu próprio contrato para disponibilizar modelos de inteligência artificial em ambientes classificados do governo. A decisão levantou questionamentos, especialmente porque tanto a Anthropic quanto a OpenAI afirmam impor limites claros quanto ao uso de suas tecnologias em armas totalmente autônomas e em sistemas de vigilância doméstica em larga escala.

Salvaguardas e limites declarados

Em meio às críticas nas redes sociais, a OpenAI publicou um artigo explicando sua estratégia de segurança. No comunicado, a empresa destacou três áreas nas quais seus modelos não podem ser aplicados: vigilância doméstica em massa, armamentos autônomos e decisões automatizadas de alto risco — como sistemas de “crédito social”.

A companhia afirmou que, diferentemente de outras desenvolvedoras de IA que teriam flexibilizado mecanismos de proteção e dependido apenas de políticas de uso, seu acordo com o Departamento de Defesa adota uma estrutura “mais ampla e em múltiplas camadas”. Segundo o texto, a OpenAI mantém controle integral sobre sua arquitetura de segurança, opera via nuvem, restringe o acesso a pessoal autorizado e estabelece salvaguardas contratuais robustas, além de cumprir a legislação norte-americana.

A empresa também declarou não saber por que a Anthropic não conseguiu concluir o acordo e manifestou expectativa de que outros laboratórios de IA considerem parcerias semelhantes.

Críticas sobre possível vigilância doméstica

Após a divulgação do contrato, o jornalista Mike Masnick, do Techdirt, argumentou que o texto permitiria, sim, vigilância interna. Ele apontou que a coleta de dados privados seguiria a Executive Order 12333, norma que, segundo ele, possibilita à NSA interceptar comunicações fora dos Estados Unidos que eventualmente envolvam cidadãos americanos.

Em resposta às críticas, Katrina Mulligan, responsável por parcerias de segurança nacional na OpenAI, publicou no LinkedIn que parte do debate parte da premissa equivocada de que uma única cláusula contratual seria o principal obstáculo ao uso da IA para vigilância em massa ou armamentos autônomos.

Segundo Mulligan, o fator determinante não é apenas a redação do contrato, mas a arquitetura técnica da implementação. Ao limitar o acesso aos modelos por meio de API em nuvem, a empresa afirma conseguir impedir a integração direta com sistemas de armas, sensores ou equipamentos operacionais.

Reação negativa e impacto no mercado

Altman também comentou o tema na rede social X, onde admitiu que a rapidez da decisão provocou forte repercussão negativa. No fim de semana, o chatbot Claude, da Anthropic, chegou a superar o ChatGPT no ranking da App Store da Apple.

De acordo com Altman, a intenção da OpenAI foi reduzir tensões entre o Departamento de Defesa e o setor de tecnologia. Ele afirmou que, se a estratégia contribuir para uma distensão no relacionamento entre governo e indústria, a empresa poderá ser vista como protagonista em um momento sensível. Caso contrário, continuará sendo percebida como precipitada e imprudente na condução do acordo.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo