
A adoção de Inteligência Artificial deixou de ser tendência para se tornar realidade
nas empresas de todos os portes. Ferramentas como chatbots, automação de
atendimento, análise de dados e até geração de conteúdo passaram a fazer parte
da rotina diária das empresas.
O problema é que, enquanto a tecnologia avança rapidamente, a governança sobre
o uso de dados pessoais não acompanha o mesmo ritmo. E é exatamente aqui que
surge um risco silencioso e altamente perigoso para as empresas.
Muitas empresas já estão utilizando ferramentas de inteligência artificial no dia a
dia sem qualquer avaliação prévia sobre o tratamento de dados pessoais; o uso da
IA sem controle pode virar um passivo jurídico.
Na prática, isso significa que:
• Dados pessoais de clientes estão sendo inseridos em plataformas sem
validação jurídica;
• Informações sensíveis podem estar sendo expostas em prompts;
• Decisões automatizadas estão sendo tomadas sem transparência;
Sob a ótica da Lei Geral de Proteção de Dados Pessoais, isso representa um cenário
de alto risco.
A LGPD não proíbe o uso de Inteligência Artificial, mas exige que qualquer
tratamento de dados pessoais tenha base legal, finalidade legítima e medidas de
segurança adequadas. Ignorar isso pode transformar uma solução inovadora em
um grande problema jurídico.
Não obstante isso, um fenômeno vem crescendo de forma silenciosa dentro das
empresas é a chamada shadow IA. Assim como já ocorreu com o “shadow IT”, trata-
se do uso de ferramentas de Inteligência Artificial, como ChatGPT, Claude,
Microsoft Copilot e Gemini por colaboradores sem conhecimento técnico,
validação ou controle da área de tecnologia, segurança da informação ou
compliance.
Na prática, funcionários utilizam soluções públicas de IA para ganhar produtividade
no dia a dia, sem qualquer diretriz corporativa sobre quais dados podem ou não ser
compartilhados.
O problema é que, nesse cenário, a empresa perde completamente a governança
sobre o tratamento de dados pessoais. Informações de clientes, parceiros, dados
sensíveis e até informações sigilosas, como o segredo comercial podem ser
inseridos nessas plataformas sem qualquer avaliação de risco, base legal ou
garantia de segurança, o que configura violação direta à Lei Geral de Proteção de
Dados Pessoais.
Mais do que um desvio operacional, a shadow IA representa um risco estrutural,
pois acontece fora dos controles formais da organização — e, justamente por isso,
tende a passar despercebida até que o dano já tenha sido causado.
Um dos pontos mais críticos do uso de IA é o chamado “vazamento invisível”.
Diferente de incidentes tradicionais, aqui não há necessariamente um ataque
externo. O risco surge dentro da própria operação, quando colaboradores inserem
dados em ferramentas que não possuem controle corporativo.
Outro ponto crítico é o uso de IA para a tomada de decisões automatizadas — como
análise de crédito, priorização de atendimento ou classificação de clientes.
A LGPD garante ao titular o direito de solicitar a revisão de decisões automatizadas
conforme consta no seu Art. 20. Se a sua empresa utiliza inteligência artificial para
decidir, ela também precisa estar preparada para explicar e justificar essas
decisões. Sem isso, o risco não é apenas jurídico é também reputacional.
Empresas que negligenciam a governança de dados no uso da inteligência artificial
enfrentarão consequências que vão muito além de sanções regulatórias, exemplo:
• Perda de contratos com empresas mais maduras em compliance;
• Bloqueio em processos de due diligence;
• Danos à reputação e perda de confiança do mercado;
• Aumento de riscos operacionais e retrabalho.
Na prática, a ausência de adequação à LGPD pode se tornar uma barreira real para
o crescimento da empresa. A virada de chave: A LGPD como aliada da inovação:
Empresas que entendem o cenário atual já perceberam que a LGPD não é um
obstáculo, mas sim um direcionador estratégico.
Ao estruturar uma governança de dados adequada, é possível:
• Utilizar Inteligência Artificial com segurança;
• Reduzir riscos jurídicos e operacionais;
• Fortalecer a confiança com clientes e parceiros;
• Se posicionar de forma mais competitiva no mercado.
Aqui é que entra o conceito de privacy by design: Incorporar a proteção de dados
desde a concepção das soluções tecnológicas.
Conclusão: a pergunta que todo empresário deve começar a se fazer:
– Sua empresa está preparada para usar a inteligência artificial sem violar a LGPD?
Porque, no cenário atual, crescer com tecnologia, mas sem governança de dados
não é inovação; é apenas assumir riscos que podem custar a vida da empresa.



