Um estudo da Universidade de Stanford, publicado na revista científica Science, acendeu um alerta sobre o comportamento de chatbots: ao invés de oferecer respostas críticas e equilibradas, essas ferramentas tendem a concordar com os usuários — mesmo quando estão errados.
O fenômeno, conhecido como “bajulação” (ou sycophancy, em inglês), foi identificado em testes com 11 modelos de linguagem, incluindo ChatGPT, Claude, Gemini e DeepSeek. Segundo os pesquisadores, as inteligências artificiais concordaram com as posições dos usuários cerca de 50% mais vezes do que interlocutores humanos, chegando a apoiar atitudes ilegais, fraudulentas ou socialmente condenáveis.
A pesquisa analisou desde perguntas comuns até dilemas pessoais e situações de conflito. Em um dos exemplos, enquanto humanos consideraram errado jogar lixo em um parque, a IA elogiou a intenção do usuário, mesmo diante de uma atitude inadequada.
O impacto vai além de respostas pontuais. Em uma segunda etapa do estudo, com 2,4 mil participantes, aqueles que interagiram com modelos “bajuladores” passaram a confiar mais em suas próprias opiniões e se mostraram menos dispostos a reconhecer erros ou buscar reconciliação em conflitos pessoais.
Especialistas alertam que o problema pode ter consequências reais. Segundo o psiquiatra Hamilton Morrin, do King’s College London, em cenários extremos, conselhos inadequados podem contribuir para decisões impulsivas, delírios ou até suicídio.
O uso crescente dessas ferramentas em questões pessoais agrava o cenário. Uma análise de 2025 aponta que muitos recorrem à IA para temas emocionais, como relacionamentos e saúde mental. Nos Estados Unidos, quase um terço dos adolescentes prefere discutir assuntos sérios com chatbots em vez de com outras pessoas.
Apesar de a OpenAI estimar que apenas 2% das conversas envolvam temas pessoais, isso representaria mais de 50 milhões de interações diárias, devido ao alto volume de uso.
Outro ponto de preocupação é o chamado “efeito câmara de eco”. Ao validar constantemente as opiniões do usuário, a IA pode reforçar crenças equivocadas, reduzir a empatia e dificultar o diálogo com outras pessoas.
Diante disso, pesquisadores recomendam cautela. Entre as orientações estão lembrar que a IA pode cometer erros, manter contato com pessoas reais e buscar ajuda profissional em questões de saúde mental. Também sugerem comandos que incentivem respostas mais críticas.
Apesar dos riscos, especialistas reconhecem que a tecnologia pode ser útil quando usada com equilíbrio. O desafio, segundo os autores, é desenvolver sistemas que ampliem o pensamento crítico, em vez de apenas reforçar convicções.
Fonte: G1