Quando a Inteligência Artificial Entra na Sala do Médico
O valor da IA na saúde depende menos da tecnologia e mais do desenho que a cerca — supervisão humana, escopo limitado, dados protegidos e decisões que continuam nas mãos de quem assina. Por João Back

Em saúde, a IA é tentadora pelo mesmo motivo que é perigosa. Ela amplia o alcance do profissional, mas também amplia erros. O jeito de tirar proveito disso é simples de dizer e duro de fazer: limitar o escopo, preservar a decisão clínica humana e obedecer a leis que tratam dados de saúde como o que são — sensíveis.
No Brasil isso já está escrito. A LGPD coloca dados de saúde no núcleo duro da proteção e exige cuidado redobrado: minimização, finalidade específica, segurança, transparência. Some a isso governança de IA. Casos de viés mostraram que modelos aprendem o mundo como ele é, não como deveria ser. Se o dado veio torto, o modelo sai torto. A Europa deu uma referência com o AI Act de 2024. Lá, saúde é “alto risco”. Isso não é um rótulo moral. É um checklist: gestão de riscos, qualidade de dado, rastreabilidade, documentação, supervisão humana real, testes antes de pôr em produção, e monitoramento contínuo depois.
Há um mal-entendido comum sobre modelos grandes de linguagem. Eles não “sabem”. Eles estimam. São sistemas probabilísticos que geram a próxima palavra mais provável dadas as anteriores. Às vezes isso é brilhante. Às vezes é confiante e errado. Chamam isso de alucinação, mas o nome engana: não é delírio, é estatística. E vieses não são bugs acidentais; são propriedades do treino. Se você esquece isso, projeta no modelo uma autoridade que ele não tem.
Então onde a IA já ajuda de verdade? Em tarefas estreitas e repetitivas. Resumo de prontuários longos. Codificação clínica. Pré-triagem com roteiros claros. Geração de esboços de laudos que o médico revisa. Checagem de aderência a protocolo. Reconciliação de medicação. Busca semântica em diretrizes. Até otimização logística: escala de equipe, previsão de demanda de leitos, compras. Em diagnóstico, o verbo certo é “sugerir”, não “decidir”. A máquina aponta caminhos; quem responde é o profissional.
Isso define o papel da supervisão humana. Pense no clínico como editor-chefe. O sistema propõe, o humano revisa e assina. Quando a incerteza explode, o caso sobe um nível. E a interface da IA deve tornar fácil dizer “não” ou pedir mais evidência. Muita coisa desanda não pela matemática, mas pelo design: telas que escondem o aviso, fluxos que incentivam o aceite automático. Automação convida à complacência. É preciso desenhar contra ela.
Os riscos são previsíveis. Erros plausíveis que soam certos. Vieses que impactam grupos de forma desigual. Vazamentos de dados por prompts maltratados ou logs verborrágicos. Deriva de modelo: o mundo muda e o desempenho cai sem ninguém notar. E a pior combinação: erro com aparência de autoridade. Se você não se prepara para esse cenário, está, na prática, aceitando-o.
Há antídotos. Nenhum mágico. Todos prosaicos.
1. Escopo estreito. Use cases cirúrgicos. “Sugerir intervalo de dose para este protocolo neste perfil de paciente” é administrável. “Diagnosticar” não é.
2. Dados minimizados e protegidos. Só o necessário, por menos tempo possível, com trilhas de auditoria decentes. Desidentifique quando der. Não confie que desidentificar resolve sempre. Reidentificação existe.
3. Avaliação antes e depois. Conjuntos de teste estáveis, com casos difíceis e grupos protegidos. Métricas de segurança ao lado das de acurácia. Monitoramento em produção com alarmes de drift.
4. Rastreabilidade. Logs que permitem reconstruir quem perguntou o quê, que versão do modelo respondeu, quais fontes foram citadas. Não para punir, mas para aprender.
5. Explicações úteis. Não “explicabilidade” genérica. Evidências concretas: diretrizes citadas, trechos relevantes, alternativas consideradas. Ajuda o clínico a discordar quando precisa.
6. Controles de uso. Bloqueios de entrada (PHI onde não deve), filtros de saída (vazamentos), detecção de incerteza. Fluxos de fallback: quando o modelo sinaliza baixa confiança, manda para o humano.
7. Treinamento das pessoas. Não “dicas de prompt”. Treinamento sobre limites estatísticos, viés, e como ler sinais de confiança. Cultura onde dizer “não vou usar isso aqui” é sinal de competência.
8. Governança simples. Um comitê pequeno, multidisciplinar, que realmente se reúne. Dois ciclos constantes: o do modelo (melhorar) e o de incidentes (aprender). Qualquer falha grave vira caso-escola interno em uma semana.
Isso conversa bem com a LGPD e com a lógica do AI Act. A lei pede uma estrutura que você deveria querer mesmo sem lei. Transparência, gestão de risco, supervisão, segurança. A diferença é que, com lei, não dá para adiar.
Há outra tendência inevitável: ferramentas mais nichadas. A fantasia é um modelo geral que serve a tudo. A prática em saúde premiará modelos menores, com linguagem clínica, plugados em terminologias (CID, SNOMED, LOINC), e treinados em diretrizes locais. Não porque o geral seja ruim, mas porque o específico reduz variação e facilita validação. Também ajuda na conformidade: menos superfícies, menos surpresas. Em muitos casos, o melhor design será colocar o modelo perto do dado, não o dado perto do modelo.
Como começar sem se perder? Um roteiro curto funciona.
1. Escolha três casos-piloto. Um de texto (resumo/extração), um de protocolo (checagem de aderência) e um operacional (escala/estoque). Três meses. Critérios de saída claros.
2. Faça o DPIA cedo. Mapeie finalidades, bases legais, riscos e salvaguardas. Revise escopo até a coleta caber na finalidade. Só então prototipe.
3. Defina “bom o suficiente”. Para cada caso, qual métrica de segurança barra o go-live? Acurácia mínima é a metade da história. Falsos negativos em quais subgrupos são inaceitáveis?
4. Desenhe o “não”. Botões para recusar, rotas de escalonamento, thresholds de confiança. Torne o caminho seguro o mais rápido.
5. Teste com gente real. Rotas de feedback em uma semana, não um trimestre. Meça adoção e divergências entre recomendação e decisão final. Divergir é saudável.
6. Documente como se fosse auditar amanhã. Porque pode ser. Artefatos simples: cartões do modelo, trilhas de versões, relatórios de avaliação e incidentes resolvidos.
7. Planeje sair do piloto. Se der certo, como vira rotina? Quem mantém? Com que orçamento? Sem esse plano, piloto bom vira anedota.
Alguns querem uma resposta filosófica para a pergunta “quem responde quando a IA erra?”. A resposta prática é: quem assina a decisão clínica. É por isso que toda arquitetura deveria facilitar o desacordo informado. Você só quer automatizar o que pode ser desfeito com baixo custo. O resto precisa de olhos humanos.
Há um padrão curioso em adoções bem-sucedidas. Elas parecem entediantes por fora. Mais checklists do que ciência de foguetes. Mais logs do que LLM hype. Isso não é um defeito. É o preço da confiabilidade. Em ambientes de alto risco, o charme vem do que não acontece: o erro que não escalou, o dado que não vazou, o viés que foi detectado cedo.
Também há a tentação de discutir IA como se fosse uma entidade moral. Não ajuda. Trate como qualquer ferramenta poderosa: martelos grandes constroem mais e amassam mais. A ética aparece nas escolhas pequenas. Quem tem acesso. O que é automático. O que é opcional. Onde o default protege o paciente. É por isso que “governança” funciona melhor quando está embutida no desenho do produto, não num PDF.
Se você trabalha em clínica ou hospital, a melhor pergunta para descobrir um bom uso de IA é: onde há uma “porta que não fecha” há anos? Aquelas tarefas que todos aceitam como incômodas. Reconciliar medicações entre sistemas. Achar diretriz específica no meio de 200 páginas. Padronizar um protocolo que cada equipe interpreta diferente. Esses são lugares bons porque o sucesso é mensurável e o risco é controlável. Você não precisa começar com o que é impressionante; comece com o que termina.
No final, IA em saúde é menos sobre o modelo e mais sobre o entorno. O modelo melhora com tempo e dado. O entorno — processos, pessoas, controles — ou existe desde o início ou não aparece. Se você acertar esse entorno, a tecnologia tem onde encaixar. Se não acertar, mesmo o melhor modelo vira ruído.
O caminho mais seguro é o mais pragmático. Limite o escopo. Projete o desacordo. Meça o que importa. Documente o suficiente. E mantenha a responsabilidade onde sempre esteve: no profissional que olha para o paciente e decide. É assim que a IA deixa de ser uma promessa vaga e vira uma ferramenta que vale a pena usar.