Inteligência Artificial, poder e desigualdade
Governança algorítmica, letramento digital e proteção de direitos na era da inteligência artificial. Por Newton Moraes e Calza Neto

A inteligência artificial já não pertence ao futuro. Ela decide, hoje, quem tem acesso a crédito, emprego, benefícios sociais, saúde e até quem será mais vigiado. O que está em jogo não é apenas tecnologia, mas poder.
Décadas atrás, pensadores como Debord, Beck, Castells e Foucault alertaram que a técnica reorganizaria a sociedade, os riscos e a vigilância. Hoje, a inteligência artificial tornou esse alerta concreto. Ela classifica, prevê comportamentos e orienta decisões que afetam diretamente direitos e oportunidades.
Em 2025, a Agência dos Direitos Fundamentais da União Europeia publicou um relatório sobre sistemas de inteligência artificial de alto risco. A conclusão é clara: aplicações em biometria, policiamento, crédito, saúde, triagens sociais e recrutamento impactam diretamente direitos como privacidade, igualdade, proteção de dados e devido processo legal. Por isso, a Europa exige governança rígida, supervisão humana e avaliação prévia de impacto.
Mas a desigualdade também virou digital. Organismos internacionais alertam que a inteligência artificial tende a ampliar a distância entre países ricos e pobres e, dentro das próprias sociedades, entre quem domina a tecnologia e quem apenas sofre seus efeitos. Surge uma nova exclusão: além da pobreza econômica, a pobreza informacional.
No Brasil, o risco é maior. Importamos sistemas sofisticados sem, muitas vezes, termos estrutura institucional e letramento digital da população. A inteligência artificial não é neutra. Reproduz vieses, interesses e desigualdades.
Nesse sentido, o letramento digital deve ser encarrado como ferramenta de desenvolvimento social no ambiente virtual e não mera habilidade técnica. A Política Nacional de Educação Digital (Lei nº 14.533/2023) já reconhece a cultura digital como eixo estruturante da formação, exigindo que a escola e a família ajudem os jovens a compreenderem criticamente os impactos da revolução digital, a lógica dos algoritmos e a identificar conteúdos manipulados, como as deepfakes, que a Resolução nº 265/2025 do CONANDA trata expressamente como forma de violência sexual. Mas educação, sozinha, não basta diante da opacidade de muitos sistemas algorítmicos. É preciso que o marco normativo seja efetivamente aplicado, em especial o Estatuto Digital (Lei nº 15.211/2025), que determina a revisão regular das ferramentas de IA usadas em mecanismos de supervisão parental, proíbe o perfilamento comportamental para fins publicitários e impõe ao Estado o dever de fiscalizar se a “arquitetura de escolha” e os sistemas automatizados das plataformas respeitam a não discriminação e atuam na prevenção de riscos sistêmicos previstos nas diretrizes nacionais.
Contudo, só haverá letramento digital real dos jovens, e da sociedade como um todo, se houver capacitação concreta, contínua e efetiva dos professores. Não se trata de oferecer oficinas pontuais sobre “uso de ferramentas digitais”, mas de estruturar políticas de formação docente que integrem, no cotidiano da escola, a compreensão crítica dos algoritmos, dos modelos de IA e das dinâmicas de vigilância e manipulação de comportamento no ambiente online. O professor que não recebe suporte adequado tende a reproduzir uma visão instrumental e superficial da tecnologia, limitada ao uso de plataformas educacionais, sem desenvolver com os estudantes a leitura crítica de conteúdos, a identificação de vieses e a percepção dos riscos à privacidade, à saúde mental e à dignidade. Em outras palavras, sem professor letrado em IA e cultura digital, não há estudante verdadeiramente letrado e tampouco a sociedade.
Isso significa investir em programas de formação inicial e continuada que articulem pedagogia, direitos digitais e fundamentos de inteligência artificial, oferecendo ao docente não apenas “recursos”, mas repertório para discutir, em sala de aula, temas como desinformação, perfilamento, deepfakes, assédio algorítmico e economia de dados.
Também implica garantir condições materiais mínimas, tempo na jornada, apoio institucional, acesso a materiais didáticos atualizados e redes de apoio técnico-pedagógico. A escola só poderá cumprir o papel de espaço de proteção e emancipação na era da IA se o professor deixar de ser um “usuário improvisado de tecnologia” para se tornar agente central de mediação crítica do digital, capaz de transformar ferramentas algorítmicas em instrumentos de cidadania, e não de vulnerabilização.
Além disso, para evitar o agravamento do desequilíbrio e distanciamento social a consolidação da inteligência artificial como infraestrutura decisória nas esferas pública e privada impõe um tripé mínimo de proteção: Revisão das decisões automatizadas; Governança institucional robusta; e Transparência e accountability, especialmente quando o Estado utiliza ou contrata sistemas algorítmicos. Sem esses elementos, o risco é transformar a IA em uma “caixa-preta de poder”, imune a controle social e jurídico.
Em primeiro lugar, decisões apoiadas ou tomadas por IA não podem ser definitivas. A própria LGPD, ao tratar de decisões automatizadas, aponta para a necessidade de mecanismos que permitam ao titular contestar, solicitar revisão e exigir critérios minimamente compreensíveis. No plano dos direitos fundamentais, isso se conecta ao devido processo legal, à ampla defesa e à vedação de discriminações arbitrárias. Em contextos sensíveis, como crédito, benefícios sociais, segurança pública, triagem de saúde ou seleção de candidatos, deve haver sempre uma instância humana qualificada apta a reavaliar o resultado algorítmico, ponderar suas consequências e corrigir eventuais injustiças.
Em segundo lugar, é indispensável que as instituições adotem programas de governança de IA, e não apenas “contratem tecnologia”. Isso envolve políticas internas claras, definição de papéis e responsabilidades, comitês multidisciplinares (jurídico, tecnologia, ética, compliance), avaliação prévia de impacto em direitos fundamentais e gestão contínua de riscos. A IA precisa ser encarada como objeto de compliance, com processos de auditoria, logs, registros de treinamento, critérios de escolha de fornecedores e protocolos de desligamento ou suspensão de sistemas que se mostrem discriminatórios ou desproporcionais.
Um terceiro eixo é a necessidade de treinar modelos de IA com guardrails éticos e jurídicos alinhados à legislação brasileira, de modo que exista um verdadeiro “filtro interno”. Isso significa incorporar, desde a fase de desenvolvimento e treinamento, parâmetros que impeçam recomendações discriminatórias, violações de privacidade, uso abusivo de dados sensíveis, práticas de vigilância desproporcionais ou violações da dignidade humana. Em linguagem de governança, trata-se de uma abordagem de compliance by design: a IA não apenas deve “obedecer à lei”, mas ser desenhada para rejeitar usos ilegítimos antes mesmo que eles cheguem ao usuário final ou ao gestor público.
Por fim, quando se trata do Estado, a exigência é ainda mais rigorosa. O Poder Público não pode se valer de sistemas opacos para tomar decisões que afetam direitos fundamentais e políticas sociais. É necessário instituir deveres de transparência reforçada e accountability algorítmica, incluindo: divulgação dos tipos de sistemas utilizados, finalidades, bases de dados de treinamento, critérios gerais de funcionamento, relatórios de impacto sobre direitos fundamentais e canais claros de contestação por parte dos cidadãos. Além disso, processos de contratação pública de IA devem exigir dos fornecedores compromissos verificáveis de conformidade com a Constituição, a LGPD e demais leis setoriais, sob pena de responsabilidade contratual, administrativa e, em certos casos, até mesmo civil e penal.
Em síntese, se a inteligência artificial se converteu em um novo locus de poder, governança, revisão humana, filtros ético-jurídicos, transparência estatal e educação digital não são “luxos regulatórios”, mas condições mínimas para que esse poder permaneça submetido à ordem constitucional e à proteção dos direitos humanos na sociedade digital. Sem letramento tecnológico da população, não há controle social efetivo sobre decisões algorítmicas, de modo que não haverá proteção real de direitos humanos na era da IA sem educação digital, porque letrar para a tecnologia é, hoje, também letrar para a democracia.
Newton Moraes
Mestre em Direito, professor e Data Protection Officer (DPO)
Calza Neto
Advogado, Pós-graduado em Direito Digital, Pós-graduando em Inteligência Artificial aplicada a Negócios, professor e Data Protection Officer (DPO)



