
O Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito SP lançou um guia voltado para empresas e organizações sobre o desenvolvimento e uso responsável de sistemas de inteligência artificial: “Governança da Inteligência Artificial em Organizações: Arquitetura de Confiabilidade e Gestão de Vieses”.
O relatório encerra um projeto de pesquisa aplicada que contou com a colaboração de especialistas externos e entrevistas com empresas parceiras, consolidando as principais preocupações, contribuições e tarefas relacionadas à governança de IA em um contexto interdisciplinar.
Três frentes de atuação
A pesquisa estruturou o estudo em três frentes principais:
-
Vocabulário comum e conhecimento de base — para profissionais que lidam com vieses em soluções tecnológicas;
-
Conscientização sobre riscos organizacionais — abordando impactos legais, financeiros e sociais da implementação de IA;
-
Adaptação de instrumentos de governança — para que políticas corporativas integrem práticas de ética e justiça algorítmica.
De acordo com Luiza Morales, pesquisadora do CEPI-FGV, o guia oferece ferramentas para que empresas utilizem a IA de forma ética, promovendo maior segurança ao ecossistema de inovação.
Intersecção com direito e diversidade
O relatório relaciona o uso da IA a diversas áreas do conhecimento, incluindo proteção de dados pessoais, Direito Antidiscriminatório, Diversidade e Inclusão e Gestão de Riscos. Conceitos como discriminação, fairness e justiça algorítmica são detalhados, mostrando como o ordenamento jurídico já aborda práticas discriminatórias e estabelecendo fundamentos para decisões organizacionais.
Ciclo de vida de algoritmos e mitigação de vieses
O estudo propõe a observação do ciclo de vida das soluções algorítmicas como estratégia de governança, identificando momentos em que vieses podem ser introduzidos ou amplificados. Referências internacionais, como CRISP-DM, KDD, SEMMA, ISO/IEC 8183:2023 e guias do Alan Turing Institute, foram analisadas para consolidar os processos em macromomentos que orientam a gestão de vieses.
Além disso, o relatório detalha cenários de risco para as organizações, considerando sanções legais, sustentabilidade do negócio e impactos no ecossistema de inovação, reforçando a importância de decisões estratégicas alinhadas à cultura e ao apetite de risco da empresa.
Conjunto de 11 medidas práticas
A pesquisa apresenta 11 conjuntos de medidas para mitigar vieses em IA:
-
Supervisão humana
-
Promoção de diversidade, independência e participação
-
Identificação de objetivos e contexto da solução
-
Monitoramento de critérios de fairness
-
Planejamento e documentação da gestão de riscos
-
Análise e adequação de datasets
-
Seleção criteriosa de variáveis e proxies
-
Consideração da experiência do usuário
-
Tratamento e preparação de dados
-
Escolha de modelos interpretáveis
-
Operação de constrições e obstáculos nos modelos
Cada medida é detalhada conforme os momentos do ciclo de vida da IA, indicando quais vieses podem ser mitigados.
Ferramenta prática de governança
A principal contribuição do estudo é unir o ciclo de vida da IA com o repositório de medidas, criando uma ferramenta prática que consolida frameworks consagrados, facilitando a implementação de políticas de governança e mitigação de vieses em organizações.