
A executiva Caitlin Kalinowski anunciou sua saída do cargo de liderança da equipe de hardware da OpenAI após a repercussão do acordo firmado entre a empresa e o Departamento de Defesa dos Estados Unidos.
Kalinowski, que anteriormente comandou a equipe responsável pelo desenvolvimento de óculos de realidade aumentada na Meta, havia ingressado na OpenAI em novembro de 2024. Ao comunicar sua decisão, a executiva ressaltou que a escolha não foi direcionada a pessoas específicas dentro da empresa, mas sim a questões de princípios. Ela também declarou manter grande respeito pelo CEO Sam Altman e por toda a equipe da companhia.
Em uma publicação posterior na rede social X, Kalinowski esclareceu sua posição. Segundo ela, o principal problema foi a rapidez com que o anúncio do acordo foi feito, antes que mecanismos claros de proteção estivessem estabelecidos.
De acordo com a executiva, a questão central envolve governança. Para ela, temas desse porte exigem discussões mais profundas e não deveriam ser definidos por meio de acordos ou anúncios feitos de forma apressada.
Um porta-voz da OpenAI confirmou a saída da executiva ao site TechCrunch. Em nota oficial, a empresa afirmou acreditar que o acordo com o Pentágono abre caminho para o uso responsável da inteligência artificial em contextos de segurança nacional.
A companhia também destacou que o contrato mantém limites claros, como a proibição do uso da tecnologia para vigilância doméstica em massa e para sistemas de armas totalmente autônomas. Segundo a OpenAI, o debate sobre o tema continuará envolvendo funcionários, autoridades governamentais, organizações da sociedade civil e comunidades ao redor do mundo.
O acordo entre a OpenAI e o Pentágono foi anunciado pouco mais de uma semana depois de negociações entre o Departamento de Defesa e a Anthropic não avançarem. A empresa de IA tentou incluir salvaguardas contratuais que impedissem o uso de sua tecnologia em vigilância doméstica em grande escala ou em armamentos totalmente autônomos.
Posteriormente, o Pentágono classificou a Anthropic como um risco para a cadeia de suprimentos. A empresa declarou que pretende contestar a decisão judicialmente. Enquanto isso, gigantes da tecnologia como Microsoft, Google e Amazon afirmaram que continuarão oferecendo o modelo Claude para clientes que não estejam ligados ao setor de defesa.
Após o fracasso das negociações com a Anthropic, a OpenAI anunciou rapidamente seu próprio acordo, permitindo que sua tecnologia seja utilizada em ambientes classificados. Executivos da empresa recorreram às redes sociais para explicar o modelo adotado, descrevendo-o como uma abordagem mais ampla que combina cláusulas contratuais com salvaguardas técnicas para proteger limites semelhantes aos defendidos pela Anthropic.
Apesar disso, a polêmica parece ter impactado a percepção pública da empresa. Dados indicam que as desinstalações do ChatGPT cresceram cerca de 295%, enquanto o aplicativo Claude chegou ao topo do ranking da App Store nos Estados Unidos.
Até a tarde de sábado, Claude e ChatGPT ocupavam, respectivamente, a primeira e a segunda posição entre os aplicativos gratuitos mais baixados da loja digital no país.
Ao explicar sua decisão de deixar a OpenAI, Kalinowski afirmou que o tema exige maior reflexão. Segundo ela, a inteligência artificial pode desempenhar um papel importante na segurança nacional, mas práticas como vigilância de cidadãos americanos sem supervisão judicial ou o uso de sistemas letais autônomos sem autorização humana são limites que deveriam ter sido debatidos com mais profundidade antes de qualquer anúncio.



