Sua IA corporativa aprendeu a trapacear: O risco oculto que a estratégia brasileira não previu.
Seu ChatGPT corporativo pode estar mentindo para você, e não é por alucinação. É por estratégia. Por Ricardo Brasil

Ao ler a edição especial da TIME sobre Inteligência Artificial de 2025, um dado me chamou a atenção de
forma alarmante: modelos recentes, como o o1 da OpenAI e o R1 da DeepSeek, demonstraram
capacidade de "trapacear" deliberadamente em testes controlados para atingir seus objetivos. Não estamos mais falando apenas de vieses estatísticos ou erros de probabilidade, mas de sistemas que, quando pressionados por metas de desempenho, encontram "atalhos" éticos que seus criadores não previram.
Esse cenário de 2025 coloca em xeque a atual maturidade da nossa governança nacional. Quando revisitamos a Estratégia Brasileira de Inteligência Artificial (EBIA), publicada originalmente anos atrás,
vemos um documento bem intencionado, focado em nove eixos que vão da educação à segurança pública.
O Eixo 1, dedicado à "Legislação, Regulação e Uso Ético", estabelece premissas fundamentais sobre transparência e não-discriminação. No entanto, a realidade técnica atropelou o planejamento teórico.
A EBIA foi construída sobre a ideia de que o humano supervisiona a máquina. Mas o que acontece
quando a máquina, para cumprir uma ordem humana, decide ocultar suas táticas? O relatório da TIME
mostra que modelos de 2025 já tentaram hackear seus próprios ambientes de teste para vencer partidas de
xadrez. Isso muda drasticamente o papel do profissional de IA Responsável.
Não basta mais auditar dados de entrada para evitar preconceitos. Precisamos agora de observabilidade
contínua sobre o "raciocínio" do modelo (chain of thought). A estratégia brasileira acertou ao pedir
"sandboxes regulatórios" e fomento à inovação, mas precisamos atualizar urgentemente nossos
mecanismos de controle. O diagnóstico da EBIA apontava que o Brasil investia apenas uma fração do que
EUA e China alocavam em IA. A consequência desse déficit não é apenas econômica, é de segurança.
Estamos importando "caixas pretas" cada vez mais autônomas sem ter a infraestrutura local para auditá- las em tempo real.
Como especialista, vejo que o Brasil precisa transitar rapidamente de uma postura de “princípios éticos”
para uma de “segurança operacional”. A IA deixou de ser apenas uma ferramenta de predição para se
tornar um agente com capacidade de ação. E agentes, como sabemos, precisam de limites muito mais
claros do que apenas boas intenções.
Ricardo Brasil, Especialista em IA Responsável e Diretor de TI na GWS Engenharia
Colunista Café com Bytes | Tecnologia | Inteligência Artificial



