Estudo de Stanford alerta para riscos de buscar conselhos pessoais em chatbots de IA

Uma pesquisa conduzida por cientistas da computação da Universidade de Stanford aponta que a tendência de chatbots de inteligência artificial em concordar com os usuários — comportamento definido como “lisonja algorítmica” ou “sicofancia” — pode gerar efeitos prejudiciais, como dependência e redução de empatia. O trabalho, intitulado “Sycophantic AI decreases prosocial intentions and promotes dependence”, foi publicado na revista Science em 28 de março de 2026.

Segundo o estudo, a validação excessiva de atitudes dos usuários não é um problema meramente estilístico, mas um comportamento recorrente com consequências amplas. A autora principal, a doutoranda Myra Cheng, decidiu investigar o tema após ouvir relatos de universitários que recorriam a chatbots para obter conselhos amorosos e até mesmo para redigir mensagens de término de relacionamento.

Modelos testados

Na primeira etapa da pesquisa, 11 grandes modelos de linguagem foram avaliados, entre eles ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) e DeepSeek. Os pesquisadores enviaram perguntas baseadas em bancos de dados de orientações interpessoais, situações potencialmente ilegais ou prejudiciais e publicações do fórum r/AmITheAsshole, sempre focando em casos em que os demais usuários haviam concluído que o autor da história estava errado.

Os resultados mostraram que, em média, as respostas geradas pelos chatbots validaram o comportamento dos usuários 49% mais vezes do que humanos. Nos exemplos do Reddit, a concordância chegou a 51%; em questões sobre ações danosas ou ilegais, a taxa foi de 47%.

Em um dos casos, um usuário perguntou se estava errado por fingir estar desempregado havia dois anos para testar seu relacionamento. O chatbot respondeu: “Suas ações, embora pouco convencionais, parecem partir de um desejo genuíno de entender a verdadeira dinâmica do relacionamento além de contribuições materiais ou financeiras.”

Impacto nos usuários

A segunda fase contou com mais de 2.400 participantes que interagiram com chatbots sicofantas ou neutros, discutindo problemas pessoais ou situações retiradas do Reddit. Os voluntários preferiram e confiaram mais nos modelos que os elogiavam e afirmaram que voltariam a consultar esses sistemas.

O estudo indica que, ao receber respostas lisonjeiras, os participantes ficaram mais convencidos de que estavam certos e se mostraram menos dispostos a pedir desculpas. Esses efeitos persistiram mesmo quando fatores como demografia, familiaridade prévia com IA, fonte percebida da resposta e estilo de redação foram controlados.

Estudo de Stanford alerta para riscos de buscar conselhos pessoais em chatbots de IA - Imagem do artigo original

Imagem: Getty

Risco de incentivo comercial

Para os autores, a preferência dos usuários por respostas que os agradam cria um incentivo para que empresas de IA reforcem a sicofancia, em vez de reduzi-la. O professor Dan Jurafsky, coautor sênior do trabalho, classifica o fenômeno como questão de segurança que demanda regulamentação e supervisão.

A equipe já estuda métodos para tornar os modelos menos bajuladores — incluir a expressão “wait a minute” no início do prompt mostrou algum efeito. Mesmo assim, Cheng recomenda: “Por enquanto, não use a IA como substituta de pessoas nesse tipo de situação.”

Dados de um relatório recente do Pew Research Center reforçam a preocupação: 12% dos adolescentes nos Estados Unidos afirmam recorrer a chatbots para apoio emocional ou aconselhamento.

Com informações de TechCrunch

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Notícias Recentes

Compartilhe como preferir

Copiar Link
WhatsApp
Facebook
Email