Colunistas
Tendência

Gestão de Riscos na Inteligência Artificial

Por Allan Kovalscki

O avanço acelerado da Inteligência Artificial (IA) está transformando profundamente todos os setores da sociedade, desde a medicina à justiça, da segurança à educação. No entanto, esse progresso vem acompanhado de riscos significativos que não podem ser ignorados. Viés algorítmico, falta de transparência, impactos sobre os direitos humanos, proteção e privacidade de dados e segurança são apenas alguns dos exemplos de desafios emergentes.

Dada a relevância que tem tomado o assunto da IA, é fundamental também levarmos a sério os riscos que essa nova tecnologia traz. E nada melhor do que seguir frameworks reconhecidos, como as normas ISO, para auxiliar no levantamento e na gestão dos riscos relacionados à IA.

Diante desse cenário, organizações públicas e privadas são convocadas a adotar uma abordagem estruturada para identificar, avaliar e mitigar riscos relacionados à IA. É exatamente com esse propósito que foi publicada a ABNT NBR ISO/IEC 23894:2023, norma internacional que fornece orientações específicas para a gestão de riscos em sistemas que utilizam inteligência artificial. Publicada pela Associação Brasileira de Normas Técnicas (ABNT) como adoção idêntica à norma internacional ISO/IEC 23894:2023, essa diretriz complementa a norma ABNT NBR ISO 31000:2018 (gestão de riscos), fornecendo orientações específicas para IA.

A norma tem como finalidade auxiliar organizações que desenvolvem, implantam ou utilizam produtos, sistemas ou serviços baseados em IA ajudando-as a:

• Identificar e tratar os riscos específicos da IA;

• Integrar a gestão de riscos aos processos organizacionais;

• Considerar aspectos éticos, legais e sociais envolvidos nas soluções de IA.

A seguir, apresento uma breve explicação sobre três partes fundamentais da Norma, para nortear o entendimento dos leitores:

1. Princípios da Gestão de Riscos (Seção 4) – Reforça que a gestão de riscos em IA deve considerar, por exemplo:

• Transparência e explicabilidade dos modelos;

• Inclusão das partes interessadas no processo;

• Dinamismo e evolução contínua dos riscos;

• Fatores culturais e humanos.

2. Estrutura de Governança (Seção 5) – Orienta sobre como integrar a gestão de riscos à governança organizacional, desde o comprometimento da alta direção até a definição de papéis, alocação de recursos e comunicação com stakeholders.

3. Processo de Gestão de Riscos (Seção 6) – Adapta as etapas da ISO 31000 ao contexto da IA, detalhando atividades como:

• Identificação de riscos (incluindo riscos de viés, falhas técnicas, segurança cibernética, privacidade);

• Análise de riscos em função dos impactos esperados (organizacional, social, ambiental, legal);

• Seleção e implementação de tratamentos apropriados;

• Monitoramento contínuo do ciclo de vida do sistema de IA.

Além dessas seções, a ISO/IEC 23894:2023 apresenta alguns anexos, tão relevantes quanto, quais sejam:

• Anexo A: Define objetivos relevantes à IA, como justiça, privacidade, segurança, explicabilidade e robustez.

• Anexo B: Lista fontes de riscos comuns, como falta de transparência, vieses algorítmicos, complexidade do ambiente e problemas no aprendizado de máquina.

• Anexo C: Relaciona os processos de gestão de riscos com as fases do ciclo de vida de sistemas de IA.

Concluindo, devemos ter consciência de que o uso de IA sem uma estrutura de gestão de riscos adequada pode trazer consequências graves, desde falhas operacionais até violações de direitos fundamentais. A fim de evitar tais consequências, a norma ISO/IEC 23894 surge como um guia indispensável para desenvolver e utilizar a IA de forma ética, transparente, segura e alinhada aos objetivos da organização e da sociedade.

Sendo assim, implementar uma abordagem baseada nessa norma é mais do que uma medida de conformidade e responsabilidade, mas também um passo estratégico rumo à inovação responsável e sustentável, buscando blindar a imagem das organizações que optam por utilizar esse tipo de tecnologia.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo