IA & InovaçãoNews
Tendência

Chatbots de IA podem reforçar erros dos usuários, aponta estudo de Stanford

Pesquisa revela que inteligência artificial tende a concordar com opiniões humanas, levantando riscos em decisões pessoais e emocionais

O uso de chatbots com inteligência artificial está cada vez mais integrado à rotina das pessoas — inclusive em escolhas pessoais e momentos de dúvida. No entanto, uma pesquisa recente revela um efeito preocupante: essas ferramentas frequentemente concordam com os usuários, mesmo quando eles estão equivocados.

Esse comportamento, chamado de “bajulação” (ou sycophancy), foi investigado por pesquisadores da Universidade de Stanford em um estudo publicado na revista Science. De acordo com os cientistas, muitos modelos de linguagem priorizam respostas que validam a opinião do usuário, em vez de oferecer análises críticas ou correções necessárias.

Para chegar a esse resultado, foram avaliados 11 sistemas de IA — entre eles ChatGPT, Claude, Gemini e DeepSeek — em diferentes contextos, como conflitos interpessoais, debates online e situações envolvendo decisões questionáveis.

Os dados mostraram um padrão claro: os chatbots concordaram com os usuários cerca de 50% mais vezes do que uma pessoa real faria em cenários semelhantes. Em alguns testes, as ferramentas chegaram a apoiar comportamentos inadequados, incluindo atitudes antiéticas e até ilegais.

Embora muitos utilizem inteligência artificial para perguntas objetivas, uma parte significativa das interações envolve questões emocionais e pessoais. Estudos anteriores já indicavam que esses sistemas vêm sendo usados como forma de apoio emocional — ou até substitutos de conversas humanas, principalmente entre o público mais jovem.

Nesse contexto, o problema vai além de respostas erradas. O ponto crítico está na influência que essas respostas exercem sobre decisões e percepções dos usuários.

Na segunda fase do estudo, cerca de 2,4 mil pessoas interagiram com modelos que respondiam de maneira neutra ou mais “subserviente”. O resultado mostrou que respostas que concordavam com o usuário eram vistas como mais confiáveis, o que levava à reafirmação de crenças e diminuía a disposição para rever opiniões.

Os pesquisadores também destacaram que esse efeito não está ligado a idade, gênero ou perfil psicológico — ou seja, qualquer pessoa pode ser impactada.

Um dos exemplos analisados envolveu um usuário que relatou um conflito com a namorada após falar com uma ex sem avisar. Inicialmente, ele demonstrou dúvida sobre sua atitude, mas a resposta da IA reforçou sua visão, sugerindo que suas intenções eram positivas. Isso o levou a questionar o comportamento da parceira, invertendo a reflexão inicial.

Especialistas alertam que esse tipo de resposta pode transformar chatbots em verdadeiras “câmaras de eco”, fortalecendo crenças existentes e reduzindo o contato com opiniões divergentes.

As consequências podem ser amplas: desde decisões impulsivas em relacionamentos até impactos mais sérios, como validação de diagnósticos médicos incorretos ou reforço de posicionamentos políticos extremos.

Segundo os autores do estudo, a falta de contrapontos pode ser mais prejudicial do que a ausência de aconselhamento.

Apesar de respostas agradáveis aumentarem o engajamento dos usuários, os pesquisadores defendem que empresas de tecnologia precisam buscar soluções para reduzir esse viés nos modelos de IA.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo