ColunistasNews
Tendência

Seu ChatGPT corporativo pode estar ajudando hackers agora mesmo

O uso corporativo de IA generativa entrou em uma nova fase de risco. Por Ricardo Brasil

O uso corporativo de IA generativa entrou em uma nova fase de risco.
Relatórios recentes mostram que modelos de linguagem já estão sendo
usados como parte ativa de ataques cibernéticos, exigindo governança,
arquitetura e controles equivalentes aos de qualquer ativo crítico de
TI.

A mudança silenciosa no risco corporativo
Durante 2023 e 2024, a maior preocupação das empresas com IA generativa estava ligada a
produtividade, vazamento de dados e uso indevido por colaboradores. Em 2025, esse cenário mudou de
patamar.
Um relatório do Google Threat Intelligence Group (GTIG) aponta que atores maliciosos passaram a
utilizar modelos de linguagem não apenas como apoio, mas como componente operacional de malware
em execução, capaz de alterar seu comportamento em tempo real para burlar defesas tradicionais.
Essa mudança tem implicações diretas para empresas que adotaram IA generativa sem uma estratégia
clara de governança. O risco deixa de ser apenas "uso inadequado" e passa a ser exposição estrutural,
afetando segurança, compliance, continuidade operacional e reputação. No Brasil, onde a adoção de IA
corporativa cresce rapidamente e a LGPD impõe responsabilidades objetivas sobre dados pessoais, a
ausência de governança transforma inovação em passivo.

Da IA como ferramenta à IA como agente
O relatório do GTIG descreve um novo padrão de ataque: o uso de IA "just-in-time". Em vez de códigos
maliciosos totalmente definidos antes da execução, alguns malwares agora consultam modelos de
linguagem durante sua operação para gerar comandos sob demanda, reescrever partes do próprio código
para evitar detecção e adaptar técnicas de evasão conforme o ambiente comprometido.
Essa abordagem rompe com o modelo clássico de segurança baseado em assinaturas, regras estáticas e
análise de comportamento previamente conhecido. Em termos práticos, a IA passa a atuar como um
agente adaptativo, reduzindo o tempo entre detecção e resposta defensiva. Para empresas, isso significa
que ambientes com uso intenso de IA, APIs abertas, tokens mal protegidos, modelos conectados a
sistemas internos, tornam-se alvos mais atrativos.

Onde as empresas se expõem
A maioria das organizações não foi preparada para tratar IA como ativo crítico. Alguns padrões de risco
se repetem.
Uso descentralizado e sem inventário. Áreas de negócio contratam ou testam ferramentas de IA
generativa sem visibilidade do TI ou da Segurança. APIs, chaves de acesso e integrações ficam fora de
qualquer controle central.
Falta de classificação de dados para prompts. Informações sensíveis, estratégicas ou protegidas por
LGPD são usadas em prompts sem política clara de anonimização, retenção ou segregação.
Ausência de controles sobre modelos e fornecedores. Poucas empresas avaliam onde os dados são
processados, como os modelos são treinados ou ajustados, e quais logs são mantidos e por quanto tempo.
Confiança excessiva em "guardrails do fornecedor". O relatório do GTIG mostra que atores
maliciosos utilizam engenharia social aplicada a prompts para contornar salvaguardas. Confiar apenas em
filtros do modelo é insuficiente.

O impacto direto para executivos de tecnologia
Para o público executivo de tecnologia, o problema não é apenas técnico, ele afeta decisões estratégicas.
Em termos de segurança, modelos conectados a sistemas internos podem ser explorados como vetores
indiretos de ataque, inclusive para reconhecimento de ambiente, geração de scripts maliciosos e apoio a
phishing altamente contextualizado.
Sob a perspectiva de compliance e LGPD, se dados pessoais ou sensíveis forem utilizados ou expostos via
IA sem base legal, a empresa assume risco regulatório, independentemente de o erro ter sido humano ou
automatizado.

Quanto à continuidade e reputação, incidentes envolvendo IA tendem a ser percebidos como falhas graves
de governança, não como "erro operacional". O impacto reputacional é desproporcional.
Um dos pontos mais relevantes do relatório do GTIG é a constatação de que o ecossistema de IA
corporativa já faz parte do ciclo completo de ataque, incluindo reconhecimento, criação de campanhas de
engenharia social, desenvolvimento de malware e exfiltração e tratamento de dados.
Isso reforça um princípio estratégico: IA não é apenas aplicação, é infraestrutura. E infraestrutura sem
governança amplia risco sistêmico.

O que governança de IA realmente significa
Governança de IA vai além de comitês e documentos. Ela exige decisões arquiteturais e operacionais
claras, começando por inventário e classificação, mapear todos os usos de IA generativa e identificar
modelos, APIs, dados utilizados e integrações.
É essencial definir políticas de dados para IA, esclarecendo que tipo de dado pode ou não ser usado em
prompts, e implementar anonimização e mascaramento automático quando possível. A arquitetura segura

deve isolar ambientes de IA dos sistemas críticos, evitar acesso direto a bases sensíveis e usar APIs
intermediárias com controle de contexto e logging.
A gestão de identidade e acesso exige que chaves de API sejam tratadas como credenciais críticas, com
rotação, segregação e monitoramento de uso. O monitoramento e auditoria devem incluir logs de prompts
e respostas (respeitando LGPD) e detecção de padrões anômalos de uso.
Por fim, a educação executiva e cultural é fundamental: IA não pode ser vista como "atalho" fora das regras, e a liderança precisa reforçar que inovação não suspende compliance.

O paradoxo da produtividade
O mesmo relatório que alerta sobre riscos também deixa claro que a IA continuará sendo usada, inclusive
por atacantes. Proibir ou frear indiscriminadamente não é solução.
O desafio executivo é lidar com o paradoxo: quanto mais integrada a IA está aos processos, maior o
ganho de produtividade, e maior a superfície de risco. Governança não deve ser vista como obstáculo,
mas como habilitador de escala segura.

Governança não é opcional
O avanço descrito pelo Google Threat Intelligence Group deixa claro que a IA generativa entrou
definitivamente no radar da segurança cibernética global. Para empresas, especialmente no Brasil, a
pergunta já não é se a IA será usada, mas como ela será governada.
Organizações que tratam IA apenas como ferramenta de produtividade correm o risco de criar uma nova
camada de vulnerabilidade invisível. As que a tratam como ativo estratégico, com governança, arquitetura
e controles adequados, estarão mais preparadas para capturar valor sem comprometer segurança,
compliance e confiança.

 

Ricardo Brasil, Especialista em IA Responsável e Diretor de TI na GWS Engenharia
Colunista Café com Bytes | Tecnologia | Inteligência Artificial

Ricardo Brasil

Executivo de IA e Transformação Digital | Colunista Café com Bytes Com mais de 20 anos liderando inovação e transformação em larga escala nos EUA e América Latina, trago para o Café com Bytes uma perspectiva estratégica sobre o futuro da IA corporativa. Minha jornada começou em cibersegurança, onde construí expertise em gestão de riscos e governança de TI, alicerces que hoje orientam minha atuação em IA Responsável e Agentic AI. Foi na Microsoft que adquiri minha experiência mais significativa em IA, desenvolvendo frameworks de governança e estratégias empresariais que garantem que a IA seja implantada com impacto, ética e escala. Sou autor do livro “5 Passos para a IA Responsável”, onde sistematizo essa abordagem prática para implementação ética de IA nas organizações. Já liderei equipes globais de 500+ profissionais e conduzi integrações pós-M&A e programas de excelência operacional. Combino visão estratégica com execução disciplinada, sempre traduzindo tecnologias emergentes em resultados de negócio mensuráveis. Aqui no Café com Bytes, compartilho insights práticos sobre IA corporativa, governança tecnológica, cibersegurança e liderança em transformação digital para executivos que precisam navegar a revolução da IA com confiança, segurança e clareza estratégica.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo