Colunistas
Tendência

Gestão de Riscos na Inteligência Artificial

Por Allan Kovalscki

O avanço acelerado da Inteligência Artificial (IA) está transformando profundamente todos os setores da sociedade, desde a medicina à justiça, da segurança à educação. No entanto, esse progresso vem acompanhado de riscos significativos que não podem ser ignorados. Viés algorítmico, falta de transparência, impactos sobre os direitos humanos, proteção e privacidade de dados e segurança são apenas alguns dos exemplos de desafios emergentes.

Dada a relevância que tem tomado o assunto da IA, é fundamental também levarmos a sério os riscos que essa nova tecnologia traz. E nada melhor do que seguir frameworks reconhecidos, como as normas ISO, para auxiliar no levantamento e na gestão dos riscos relacionados à IA.

Diante desse cenário, organizações públicas e privadas são convocadas a adotar uma abordagem estruturada para identificar, avaliar e mitigar riscos relacionados à IA. É exatamente com esse propósito que foi publicada a ABNT NBR ISO/IEC 23894:2023, norma internacional que fornece orientações específicas para a gestão de riscos em sistemas que utilizam inteligência artificial. Publicada pela Associação Brasileira de Normas Técnicas (ABNT) como adoção idêntica à norma internacional ISO/IEC 23894:2023, essa diretriz complementa a norma ABNT NBR ISO 31000:2018 (gestão de riscos), fornecendo orientações específicas para IA.

A norma tem como finalidade auxiliar organizações que desenvolvem, implantam ou utilizam produtos, sistemas ou serviços baseados em IA ajudando-as a:

• Identificar e tratar os riscos específicos da IA;

• Integrar a gestão de riscos aos processos organizacionais;

• Considerar aspectos éticos, legais e sociais envolvidos nas soluções de IA.

A seguir, apresento uma breve explicação sobre três partes fundamentais da Norma, para nortear o entendimento dos leitores:

1. Princípios da Gestão de Riscos (Seção 4) – Reforça que a gestão de riscos em IA deve considerar, por exemplo:

• Transparência e explicabilidade dos modelos;

• Inclusão das partes interessadas no processo;

• Dinamismo e evolução contínua dos riscos;

• Fatores culturais e humanos.

2. Estrutura de Governança (Seção 5) – Orienta sobre como integrar a gestão de riscos à governança organizacional, desde o comprometimento da alta direção até a definição de papéis, alocação de recursos e comunicação com stakeholders.

3. Processo de Gestão de Riscos (Seção 6) – Adapta as etapas da ISO 31000 ao contexto da IA, detalhando atividades como:

• Identificação de riscos (incluindo riscos de viés, falhas técnicas, segurança cibernética, privacidade);

• Análise de riscos em função dos impactos esperados (organizacional, social, ambiental, legal);

• Seleção e implementação de tratamentos apropriados;

• Monitoramento contínuo do ciclo de vida do sistema de IA.

Além dessas seções, a ISO/IEC 23894:2023 apresenta alguns anexos, tão relevantes quanto, quais sejam:

• Anexo A: Define objetivos relevantes à IA, como justiça, privacidade, segurança, explicabilidade e robustez.

• Anexo B: Lista fontes de riscos comuns, como falta de transparência, vieses algorítmicos, complexidade do ambiente e problemas no aprendizado de máquina.

• Anexo C: Relaciona os processos de gestão de riscos com as fases do ciclo de vida de sistemas de IA.

Concluindo, devemos ter consciência de que o uso de IA sem uma estrutura de gestão de riscos adequada pode trazer consequências graves, desde falhas operacionais até violações de direitos fundamentais. A fim de evitar tais consequências, a norma ISO/IEC 23894 surge como um guia indispensável para desenvolver e utilizar a IA de forma ética, transparente, segura e alinhada aos objetivos da organização e da sociedade.

Sendo assim, implementar uma abordagem baseada nessa norma é mais do que uma medida de conformidade e responsabilidade, mas também um passo estratégico rumo à inovação responsável e sustentável, buscando blindar a imagem das organizações que optam por utilizar esse tipo de tecnologia.

Allan Kovalscki

uFndador da GCRC Desenvolvimento, mestrando em Administração, com ênfase em Governança Corporativa, MBA em Gestão Empresarial, MBA em Governança Corporativa, Pós-MBA em Governança Corporativa e Risco, Pós Graduando em Ciência de Dados e Big Data Analytics, Pós Graduado em Gestão de Projetos, Pós Graduando LLM em Proteção de Dados: LGPD & GDPR, MBA em Segurança da Informação, MBA em Riscos Cibernéticos. Atualmente ocupa também a função de Diretor Geral da COMPLY LGPD Solutions, Diretor Técnico – CTO na Armin GRC, coordenador técnico do Fórum de Proteção de Dados Pessoais nos municípios, é membro da RGB – Rede Governança Brasil, onde atua como coordenador do Comitê de Governança em Estatais, foi membro do Comitê de Auditoria Estatutário do Grupo CEEE, sendo ainda professor e consultor na Fundação Universidade Empresa de Tecnologia e Ciências – Fundatec e professor convidado na FADISMA. Na Companhia Riograndense de Saneamento, empresa pública de economia mista, onde trabalhou por 20 anos, foi Superintendente de Controles Internos, Gestão de Riscos e Compliance, onde criou a área e implementou a metodologia e os processos de governança Corporativa, gestão de riscos e compliance, foi Chefe do Departamento de Projetos e Processos, onde implementou o PMO da área de tecnologia na companhia e foi Superintendente de Tecnologia da Informação e Comunicação, tendo sido responsável pela implantação da Governança em TI, através do COBIT. Ainda, na Corsan, fez parte do Conselho Universitário e da Comissão de Ética. Possui certificação como DPO (PDPE | PDPP | PDPF) e certificações como Auditor Líder de Sistemas Integrados de Gestão em Compliance e Antissuborno, - Lead Assessor SIG ISO 19600:2014 e ISO 37001:2016, Gestão de Riscos e Continuidade de Negócios - Lead Assessor SIG ISO 31000:2009 e ISO 22301:2019, Gestão da Segurança da Informação e Gestão de Privacidade da Informação - Lead Assessor SIG ISO 27001:2005 e ISO 27701:2019.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo