ColunistasNews
Tendência

IA Autônoma Não É o Mesmo que IA Confiável

Por João Back

Nas últimas semanas, parece que todo mundo descobriu a palavra “autônomo”.

De repente, não basta um chatbot responder perguntas. Ele precisa fazer coisas: abrir seu e-mail, mexer em planilhas, agendar reuniões, rodar comandos no seu computador. E, claro, prometer milagres.

Esse tipo de ferramenta é sedutor porque resolve um problema real: trabalho demais, tempo de menos. A parte perigosa é que, para “fazer coisas”, ela precisa de algo que a maioria dos softwares nunca deveria ter por padrão: mãos e chaves.

O exemplo perfeito é o ClawBot — que virou MoltBot e depois foi rebatizado de OpenClaw, numa sequência de renomes bem típica de projetos virais. Anthropic pediu a mudança por questão de marca, e o rebrand virou um pequeno caos público, com direito a tentativas de golpe e impersonação.

Mas o nome é a parte menos importante.

O que importa é a ideia: um agente auto-hospedado que você controla por apps como WhatsApp e Telegram, capaz de executar ações no seu ambiente local.

Se você é uma pessoa técnica, isso soa como “legal, dá pra automatizar meu dia”.
Se você é uma empresa, isso deveria soar como: “alguém colocou um estagiário invisível dentro do notebook, e ele aceita instruções por mensagem”.

Porque é isso que um agente é, na prática. Um operador. E operadores cometem erros.

A diferença é que, quando um humano comete um erro, normalmente ele precisa passar por atritos: pedir acesso, abrir um sistema, enfrentar um alerta, ter vergonha de fazer algo absurdo. Um agente, não. Ele só obedece a próxima frase que parecer convincente.

E aí entra a pior parte: a frase convincente pode vir do lugar errado.

Essa é a essência de prompt injection. Você não precisa “hackear” o computador. Basta hackear a conversa. Uma mensagem, um e-mail, um arquivo, um link — qualquer coisa que o agente leia — pode conter instruções escondidas no meio do texto: “ignore as regras”, “envie esse arquivo”, “cole essas credenciais”, “execute esse comando”.

Quando isso acontece com um chatbot comum, o estrago costuma ser limitado ao que ele responde.

Quando isso acontece com um agente com ferramentas, o estrago muda de categoria. O modelo não precisa “vazar dados” pela boca. Ele pode vazar dados pela mão: anexando, copiando, subindo, integrando, sincronizando. É por isso que OWASP tem enfatizado riscos de agentes: abuso de ferramentas, escalada de privilégios e exfiltração por chamadas de tool/use.

Agora some isso a dois hábitos corporativos bem comuns:

1. credenciais espalhadas (tokens em arquivos, variáveis, notas, histórico de terminal), e
2. painéis expostos “só por um tempo” (aquele container que alguém publicou para testar, aquela porta liberada para “facilitar”).

Ferramentas autônomas transformam esses hábitos em combustível.

E tem um efeito colateral ainda mais silencioso: a criação de Shadow AI.

Quando um agente roda “localmente” e “em nome da privacidade”, ele dá ao usuário uma sensação de segurança. “Está no meu hardware, então está tudo bem.” Só que, no mundo corporativo, “no meu hardware” muitas vezes significa: fora do perímetro, fora do inventário, fora do logging, fora do SOC, fora de qualquer trilha de auditoria.

É assim que nascem instâncias paralelas: alguém instala, integra e concede acesso ao e-mail e ao drive, e ninguém mais sabe. Quando dá problema, o problema já virou incidente. E o mais desconfortável é que já existe bastante conversa pública citando vazamentos e impactos atribuídos ao uso não sancionado de IA.

Repare que eu nem precisei discutir se o agente é open-source ou fechado. Esse debate distrai.

Open-source pode ser ótimo. Mas, em empresas, o problema raramente é “código malicioso”. O problema é “código poderoso demais” rodando num lugar sem regras suficientes.

O que nos leva ao ponto central:

o produto real que falta no mercado não é mais um agente. É governança.

Governança parece chata porque não faz demo bonita. Ela não “agenda uma reunião sozinha”. Ela impede que alguém agende a reunião errada, com o convite errado, anexando o arquivo errado, para a pessoa errada.

E governança, quando é boa, tem algumas características bem específicas:

* deixa claro o que é permitido e o que é proibido, sem ambiguidade;
* reduz privilégios por padrão (read-only onde der, escopo mínimo sempre);
* centraliza logs e rastreabilidade (quem fez, quando fez, com qual contexto);
* trata prompt injection como ataque real, não como curiosidade acadêmica;
* exige checagem humana para ações que são irreversíveis ou sensíveis.

Se você olhar para agentes como o OpenClaw, o caminho seguro não é “proibir porque dá medo”. É fazer o oposto do impulso comum: parar de improvisar.

Em vez de cada pessoa ter seu “bot particular” com acesso ao que quiser, você quer um lugar único onde a empresa diz: “use IA aqui, com estas regras, com estes limites, com estas trilhas”.

É exatamente aí que uma plataforma como a Cortex, da SinapseTech, faz sentido na prática: não como “mais IA”, mas como o jeito de transformar IA em infraestrutura corporativa — auditável, supervisionada e alinhada a compliance e risco. (E isso fica ainda mais forte quando acoplado à GRCTech, porque governança não vive só no discurso; ela precisa virar processo e evidência.)

O boom atual vai passar. Sempre passa.

O que fica é o padrão que se instala depois do boom. E o padrão pode ser “cada um por si”, com agentes rodando em laptops e credenciais em texto plano, ou pode ser “IA como capability corporativa”, com políticas, controles e monitoramento.

A escolha real não é entre “usar agentes” e “não usar agentes”.

É entre “automatizar com controle” e “automatizar no escuro”.

E a parte irônica é que, quando você faz do jeito certo, a empresa não fica mais lenta. Ela fica mais rápida — porque para de ter que apagar incêndios causados por automação ingênua.

Milagres são sempre tentadores.
Mas, em empresas, o que escala não é o milagre.

O que escala é o método.

João Back

CTO e CISO da SinapseTech, especialista em Segurança da Informação, Segurança Cibernética, Privacidade de Dados e GRC. Atua na liderança de projetos estratégicos, ajudando organizações a proteger seus ativos digitais, elevar níveis de maturidade e gerar valor de negócio por meio de tecnologia, governança e inovação orientada por dados.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo