A Receita Federal e a IA: Quando o Estado decide colocar o ser humano no comando
Por Ricardo Alexandre Santos Brasil

Numa época em que empresas de tecnologia correm para lançar produtos de inteligência artificial antes de entender completamente suas consequências, uma notícia passou quase despercebida no início de fevereiro e merece muito mais atenção do que recebeu: a Receita Federal do Brasil publicou, no dia 5 de fevereiro de 2026, uma política formal de uso de inteligência artificial para reger suas próprias operações.
A iniciativa, formalizada pela Portaria RFB nº 647, não é um comunicado vago de intenções. É um documento que define princípios, diretrizes e salvaguardas concretas para o uso responsável de sistemas de IA dentro de um dos órgãos públicos mais poderosos e sensíveis do país, aquele que cuida dos seus dados fiscais, das suas declarações de imposto de renda e das informações financeiras de milhões de brasileiros.
O que a portaria estabelece, de fato
O documento disciplina o uso, o desenvolvimento, a contratação, o monitoramento e até a desativação de tecnologias de IA pela Receita Federal. Em linguagem direta: a Receita não está apenas dizendo que vai usar inteligência artificial. Ela está definindo as regras do jogo antes de avançar, o que é, infelizmente, uma exceção e não a regra no ambiente tecnológico atual.
Um dos pontos mais relevantes da política é a exigência de supervisão humana obrigatória em todas as etapas. A portaria veda expressamente o uso de IA para tomada de decisões autônomas. Sistemas de inteligência artificial poderão apoiar análises, identificar padrões e auxiliar triagens, mas a palavra final permanece com o servidor público. Nenhum algoritmo poderá, sozinho, determinar uma autuação, bloquear um CPF ou encaminhar um processo.
Além disso, a política reforça o rigor no tratamento de dados pessoais e sigilosos, a obrigatoriedade de sistemas explicáveis e auditáveis e a necessidade de mecanismos que previnam vieses algorítmicos, que são distorções que podem penalizar grupos ou perfis de contribuintes de maneira injusta e opaca.
Por que isso importa mais do que parece?
Vivemos um momento em que a narrativa dominante sobre inteligência artificial é impulsionada, quase que exclusivamente, pelo mercado. Grandes empresas de tecnologia definem o ritmo, os critérios e, com frequência, os próprios limites éticos do que pode ou não ser feito com essas ferramentas. Governos, em sua maioria, correm atrás tentando regular o que já foi lançado, vendido e incorporado ao cotidiano de milhões de pessoas.
A iniciativa da Receita Federal aponta para uma direção diferente. Ela sugere que é possível, e necessário, que o poder público estabeleça suas próprias regras antes de adotar a tecnologia, e não depois que os problemas aparecerem. Isso tem um nome: governança responsável. E é justamente o que falta em boa parte do mercado privado, onde a pressa pelo lançamento frequentemente supera qualquer preocupação com segurança, transparência ou impacto social.
O alinhamento explícito da portaria ao Plano Brasileiro de Inteligência Artificial, que orienta o país a adotar tecnologias centradas no ser humano, éticas e acessíveis, também não é detalhe menor. É um sinal de que há, ao menos neste caso, uma tentativa de coerência entre o discurso nacional e a prática institucional.
A pergunta que fica!
A Receita Federal acerta ao impor freios antes de acelerar. Mas a questão que o momento exige não é apenas interna ao órgão. É uma questão de sociedade: se uma das instituições mais burocráticas e complexas do governo brasileiro foi capaz de estabelecer uma política de IA com foco em supervisão humana, transparência e proteção de dados, por que tantas empresas privadas, com muito mais recursos e muito menos prestação de contas, ainda operam sem nada parecido?
A resposta, desconfortável, é que no mercado privado não há obrigação. E enquanto não houver, a corrida vai continuar sendo vencida pela velocidade, não pela responsabilidade.
Talvez a lição mais importante que a Receita Federal nos dá neste episódio não seja sobre tecnologia. Seja sobre prioridades.
Até o próximo Café com Bytes, com ceticismo saudável e café bem passado.



