Taiwan e a inteligência artificial: quando a democracia escolhe não regular demais
Por Newton Moraes

Enquanto a Europa consolida um modelo robusto e altamente normativo de regulação da inteligência artificial, especialmente com o AI Act, e os Estados Unidos seguem uma abordagem mais fragmentada e orientada ao mercado, Taiwan ensaia uma terceira via: uma governança democrática da IA baseada menos em controle imediato e mais em construção institucional progressiva. O recente AI Basic Act taiwanês, analisado em artigo publicado no MediaLaws, revela uma escolha regulatória sofisticada e, ao mesmo tempo, arriscada, ao estabelecer princípios amplos, diretrizes estruturantes e valores democráticos, mas adiar deliberadamente a imposição de obrigações rígidas e sanções detalhadas. Não se trata de omissão normativa, mas de estratégia.
O modelo taiwanês reconhece elementos centrais do constitucionalismo digital contemporâneo, como transparência, accountability e proteção de direitos fundamentais, mas evita convertê-los, de imediato, em comandos jurídicos densos e autoexecutáveis. Ao contrário do Regulamento Geral sobre a Proteção de Dados, especialmente em dispositivos como o artigo 22, que trata das decisões automatizadas, e o artigo 35, que disciplina a avaliação de impacto, Taiwan opta por uma arquitetura normativa que pode ser qualificada como programática e evolutiva. Dessa opção emerge um paradoxo relevante: quanto maior a flexibilidade regulatória, maior a dependência de interpretação futura. Na prática, desloca-se parte significativa da proteção de direitos para o Judiciário, para a atuação administrativa futura e, sobretudo, para o grau de maturidade institucional do próprio Estado.
Essa opção regulatória se insere em uma lógica mais ampla, vinculada à tradição do Estado desenvolvimentista asiático, na qual o direito não atua prioritariamente como barreira, mas como infraestrutura de viabilização econômica e tecnológica. A racionalidade subjacente é clara: primeiro fomentar a inovação, depois ajustar o nível de regulação conforme os riscos efetivamente identificados. Taiwan, portanto, não está atrasada em relação ao modelo europeu, mas opera sob outra lógica, que combina prudência regulatória, incentivo industrial e adaptação progressiva. Trata-se de uma escolha deliberada de política pública, que prioriza a construção de capacidades estatais e tecnológicas antes da imposição de um regime normativo rígido.
Nesse contexto, a governança por princípios assume papel central. O AI Basic Act estrutura-se em torno de valores amplos, como autonomia humana, privacidade, justiça algorítmica, transparência e responsabilidade, mas, diferentemente do modelo europeu, esses princípios não são acompanhados por deveres operacionais detalhados, regimes sancionatórios robustos ou mecanismos imediatos de enforcement. O direito, aqui, atua como bússola, e não como freio. Essa característica aproxima o modelo taiwanês de uma lógica de soft law de caráter estruturante, na qual a normatividade é progressivamente densificada por meio de regulamentações futuras, práticas administrativas e interpretação institucional.
O principal desafio, contudo, reside na dimensão institucional. A governança da inteligência artificial em Taiwan ainda apresenta sinais de fragmentação administrativa, sobreposição de competências e ausência de uma autoridade central forte. Sem coordenação eficaz, princípios tendem a permanecer no plano retórico. A efetividade do modelo dependerá, portanto, daquilo que se pode denominar de engenharia institucional da governança de dados e IA, ou seja, da capacidade do Estado de articular atores, definir responsabilidades e operacionalizar mecanismos concretos de controle e supervisão.
Há ainda uma tensão particularmente relevante no plano democrático. Taiwan é reconhecida internacionalmente por sua tradição em democracia digital, participação cívica e uso de tecnologia para deliberação pública. Ainda assim, o AI Basic Act não incorpora, de forma estruturada, mecanismos robustos de participação social na governança da inteligência artificial. O resultado é um modelo que, embora fundado em valores democráticos, ainda apresenta traços tecnocráticos em sua execução, concentrando decisões em estruturas institucionais sem canais amplamente institucionalizados de deliberação pública.
Para o contexto brasileiro, especialmente à luz da Lei Geral de Proteção de Dados e da atuação da Autoridade Nacional de Proteção de Dados, a experiência taiwanesa oferece uma reflexão estratégica relevante. O Brasil adotou um modelo mais próximo do paradigma europeu, caracterizado por maior densidade normativa, exigibilidade concreta e progressiva consolidação institucional. Esse caminho reforça a proteção de direitos, mas também eleva custos regulatórios e desafios de implementação, especialmente no setor público.
A experiência de Taiwan, nesse sentido, provoca uma pergunta incontornável: é possível governar a inteligência artificial sem sufocar a inovação? E, mais do que isso, qual é o ponto de equilíbrio entre segurança jurídica e liberdade tecnológica em contextos de rápida transformação digital? Essas questões não admitem respostas simples, mas evidenciam a necessidade de repensar os modelos tradicionais de regulação.
O AI Basic Act de Taiwan não é um modelo incompleto, mas intencionalmente aberto. Ele parte de uma premissa ousada: em ambientes de alta incerteza tecnológica, regular menos no início pode permitir governar melhor no longo prazo. Essa aposta, contudo, exige elevada capacidade institucional, sob pena de gerar lacunas regulatórias e fragilização de direitos. No fim, Taiwan não está apenas regulando a inteligência artificial, mas testando um novo paradigma de governança tecnológica, no qual o desafio não é apenas impor limites, mas compreender, com precisão institucional, o momento adequado para estabelecê-los.



