ColunistasNews
Tendência

Sua IA corporativa aprendeu a trapacear: O risco oculto que a estratégia brasileira não previu.

Seu ChatGPT corporativo pode estar mentindo para você, e não é por alucinação. É por estratégia. Por Ricardo Brasil

Ao ler a edição especial da TIME sobre Inteligência Artificial de 2025, um dado me chamou a atenção de
forma alarmante: modelos recentes, como o o1 da OpenAI e o R1 da DeepSeek, demonstraram
capacidade de "trapacear" deliberadamente em testes controlados para atingir seus objetivos. Não estamos mais falando apenas de vieses estatísticos ou erros de probabilidade, mas de sistemas que, quando pressionados por metas de desempenho, encontram "atalhos" éticos que seus criadores não previram.

Esse cenário de 2025 coloca em xeque a atual maturidade da nossa governança nacional. Quando revisitamos a Estratégia Brasileira de Inteligência Artificial (EBIA), publicada originalmente anos atrás,
vemos um documento bem intencionado, focado em nove eixos que vão da educação à segurança pública.
O Eixo 1, dedicado à "Legislação, Regulação e Uso Ético", estabelece premissas fundamentais sobre transparência e não-discriminação. No entanto, a realidade técnica atropelou o planejamento teórico.

A EBIA foi construída sobre a ideia de que o humano supervisiona a máquina. Mas o que acontece
quando a máquina, para cumprir uma ordem humana, decide ocultar suas táticas? O relatório da TIME
mostra que modelos de 2025 já tentaram hackear seus próprios ambientes de teste para vencer partidas de
xadrez. Isso muda drasticamente o papel do profissional de IA Responsável.

Não basta mais auditar dados de entrada para evitar preconceitos. Precisamos agora de observabilidade
contínua sobre o "raciocínio" do modelo (chain of thought). A estratégia brasileira acertou ao pedir
"sandboxes regulatórios" e fomento à inovação, mas precisamos atualizar urgentemente nossos
mecanismos de controle. O diagnóstico da EBIA apontava que o Brasil investia apenas uma fração do que
EUA e China alocavam em IA. A consequência desse déficit não é apenas econômica, é de segurança.
Estamos importando "caixas pretas" cada vez mais autônomas sem ter a infraestrutura local para auditá- las em tempo real.

Como especialista, vejo que o Brasil precisa transitar rapidamente de uma postura de “princípios éticos”
para uma de “segurança operacional”.  A IA deixou de ser apenas uma ferramenta de predição para se
tornar um agente com capacidade de ação. E agentes, como sabemos, precisam de limites muito mais
claros do que apenas boas intenções.

Ricardo Brasil, Especialista em IA Responsável e Diretor de TI na GWS Engenharia
Colunista Café com Bytes | Tecnologia | Inteligência Artificial

Ricardo Brasil

Executivo de IA e Transformação Digital | Colunista Café com Bytes Com mais de 20 anos liderando inovação e transformação em larga escala nos EUA e América Latina, trago para o Café com Bytes uma perspectiva estratégica sobre o futuro da IA corporativa. Minha jornada começou em cibersegurança, onde construí expertise em gestão de riscos e governança de TI, alicerces que hoje orientam minha atuação em IA Responsável e Agentic AI. Foi na Microsoft que adquiri minha experiência mais significativa em IA, desenvolvendo frameworks de governança e estratégias empresariais que garantem que a IA seja implantada com impacto, ética e escala. Sou autor do livro “5 Passos para a IA Responsável”, onde sistematizo essa abordagem prática para implementação ética de IA nas organizações. Já liderei equipes globais de 500+ profissionais e conduzi integrações pós-M&A e programas de excelência operacional. Combino visão estratégica com execução disciplinada, sempre traduzindo tecnologias emergentes em resultados de negócio mensuráveis. Aqui no Café com Bytes, compartilho insights práticos sobre IA corporativa, governança tecnológica, cibersegurança e liderança em transformação digital para executivos que precisam navegar a revolução da IA com confiança, segurança e clareza estratégica.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo