Decisão que inocentou acusado de estuprar criança em MG continha prompt de IA
Por Bruna Silva

No texto da decisão que absolveu homem por estupro em MG, havia um prompt de IA!
É a fumaça do mau uso da IA pelo sistema do judiciário brasileiro.
Em latim, fūmus malī ūsūs intellegentiae artificialīs.
A utilização de sistemas de IA no judiciário vem sendo regulamentada pela Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ) que estabelece diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário.
Além disso, estabelece normas para o desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções que adotam técnicas de inteligência artificial (IA), com o objetivo de promover a inovação tecnológica e a eficiência dos serviços judiciários de modo seguro, transparente, isonômico e ético, em benefício dos jurisdicionados e com estrita observância de seus direitos fundamentais.
O acórdão catastrófico, composto por 60 páginas, apresenta na página 45 a seguinte frase:
“Agora melhore a exposição e fundamentação deste parágrafo”,
Isto é, um prompt, que de acordo com a definição da própria resolução é um texto em linguagem natural utilizado na IA generativa para execução de uma tarefa específica.
Em meio a tantos problemas dessa infeliz decisão, pelo aspecto técnico e apenas sob a perspectiva da governança de inteligência artificial, houve no mínimo o uso inadequado de IA, com riscos severos à integridade da decisão no momento que se evidencia a produção de trechos feitos pela IA sem o mínimo da transparência apropriada. A resolução é clara ao exigir transparência plena, incluindo indicação clara de quando ferramentas automatizadas participam da elaboração de documentos judiciais.
Objetivamente, em meio a tantas violações de direitos nesse terrível caso, verifica-se que há a utilização de ferramentas de IA sem supervisão humana, se tivesse algum nível de revisão, o prompt não seria reproduzido no texto do voto.
Ninguém pode estar despreocupado!
E se a resolução 615 “não pegou”?
Este processo tratava de estupro de vulnerável, que tramita sob sigilo por lei. A IA foi utilizada sem evidências de que os dados foram anonimizados ou tratados de forma segura. Importante ressaltar que quando os dados são anonimizados de forma segura, a informação deixa de identificar o titular de dados, sendo, portanto, uma forma de proteger a privacidade do indivíduo.
Se a resolução 615 não está sendo observada, não é por falta de regulamentação. É falta de aplicação, de governança. Será que vai faltar fiscalização também?
O uso de IA no voto do caso de estupro de vulnerável em MG constitui um exemplo concreto dos riscos que a Resolução 615/2025 tenta mitigar: falta de transparência, ausência de supervisão humana adequada, uso de IA em processos sigilosos, impacto na fundamentação e integridade da decisão, inexistência de governança ou auditoria institucional.
Enquanto a resolução apresenta um marco ético, jurídico e tecnológico para o uso seguro e responsável de IA no Judiciário, o desembargador Magid Nauef Láuar, acaba de consolidar um exemplo de uso indevido, não transparente e com altíssimo potencial de violação de direitos.
Um prompt esquecido não é só um comando de IA, é um sintoma, um alerta, é a fumaça do mau uso da IA pelo sistema do judiciário brasileiro. Em latim, fūmus malī ūsūs intellegentiae artificialīs, que inclusive é pauta trabalhada pela DeServ Academy, nas webinars e treinamentos sobre Governança de Inteligência Artificial. Buscar pelo conhecimento também é estratégia de mitigação de riscos.



