NewsTecnologia
Tendência

FGV Direito SP lança guia de governança de IA para empresas e gestão de vieses

Relatório detalha ciclo de vida de algoritmos, riscos e medidas para uso ético da inteligência artificial em organizações

O Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito SP lançou um guia voltado para empresas e organizações sobre o desenvolvimento e uso responsável de sistemas de inteligência artificial: “Governança da Inteligência Artificial em Organizações: Arquitetura de Confiabilidade e Gestão de Vieses”.

O relatório encerra um projeto de pesquisa aplicada que contou com a colaboração de especialistas externos e entrevistas com empresas parceiras, consolidando as principais preocupações, contribuições e tarefas relacionadas à governança de IA em um contexto interdisciplinar.

Três frentes de atuação

A pesquisa estruturou o estudo em três frentes principais:

  1. Vocabulário comum e conhecimento de base — para profissionais que lidam com vieses em soluções tecnológicas;

  2. Conscientização sobre riscos organizacionais — abordando impactos legais, financeiros e sociais da implementação de IA;

  3. Adaptação de instrumentos de governança — para que políticas corporativas integrem práticas de ética e justiça algorítmica.

De acordo com Luiza Morales, pesquisadora do CEPI-FGV, o guia oferece ferramentas para que empresas utilizem a IA de forma ética, promovendo maior segurança ao ecossistema de inovação.

Intersecção com direito e diversidade

O relatório relaciona o uso da IA a diversas áreas do conhecimento, incluindo proteção de dados pessoais, Direito Antidiscriminatório, Diversidade e Inclusão e Gestão de Riscos. Conceitos como discriminação, fairness e justiça algorítmica são detalhados, mostrando como o ordenamento jurídico já aborda práticas discriminatórias e estabelecendo fundamentos para decisões organizacionais.

Ciclo de vida de algoritmos e mitigação de vieses

O estudo propõe a observação do ciclo de vida das soluções algorítmicas como estratégia de governança, identificando momentos em que vieses podem ser introduzidos ou amplificados. Referências internacionais, como CRISP-DM, KDD, SEMMA, ISO/IEC 8183:2023 e guias do Alan Turing Institute, foram analisadas para consolidar os processos em macromomentos que orientam a gestão de vieses.

Além disso, o relatório detalha cenários de risco para as organizações, considerando sanções legais, sustentabilidade do negócio e impactos no ecossistema de inovação, reforçando a importância de decisões estratégicas alinhadas à cultura e ao apetite de risco da empresa.

Conjunto de 11 medidas práticas

A pesquisa apresenta 11 conjuntos de medidas para mitigar vieses em IA:

  1. Supervisão humana

  2. Promoção de diversidade, independência e participação

  3. Identificação de objetivos e contexto da solução

  4. Monitoramento de critérios de fairness

  5. Planejamento e documentação da gestão de riscos

  6. Análise e adequação de datasets

  7. Seleção criteriosa de variáveis e proxies

  8. Consideração da experiência do usuário

  9. Tratamento e preparação de dados

  10. Escolha de modelos interpretáveis

  11. Operação de constrições e obstáculos nos modelos

Cada medida é detalhada conforme os momentos do ciclo de vida da IA, indicando quais vieses podem ser mitigados.

Ferramenta prática de governança

A principal contribuição do estudo é unir o ciclo de vida da IA com o repositório de medidas, criando uma ferramenta prática que consolida frameworks consagrados, facilitando a implementação de políticas de governança e mitigação de vieses em organizações.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo