Ciência

Falsa escuta: a inteligência artificial finge entender você

Uso crescente de chatbots como suporte emocional levanta preocupações éticas, cognitivas e sanitárias. A inteligência artificial parece ouvir, mas não compreende, não acolhe, e pode até te deixar pior

Uso crescente de chatbots como suporte emocional levanta preocupações éticas, cognitivas e sanitárias. A inteligência artificial parece ouvir, mas não compreende, não acolhe, e pode até te deixar pior

A inteligência artificial tem se tornado cada vez mais presente no cotidiano, oferecendo soluções para tarefas que vão de agendamento de compromissos a aconselhamento emocional. Mas até que ponto ela pode — ou deve — ser usada como substituta para relações humanas complexas, como a escuta terapêutica? A nova tendência de usar chatbots como o ChatGPT para desabafos psicológicos acendeu alertas em especialistas em saúde mental e neurociência: há um limite entre conforto digital e ilusão perigosa.

Se por um lado o ChatGPT oferece respostas bem formuladas, com um tom de empatia artificial que pode ser acolhedor num primeiro momento, por outro, não há, de fato, escuta, vínculo, nem responsabilidade profissional. “Essa sensação de acolhimento é uma simulação. O chatbot aprende padrões de linguagem — mas não pensa, não sente e não entende o sofrimento do outro”, explica Victor Hugo Albuquerque, professor da Universidade Federal do Ceará.

A inteligência artificial, nesse caso, opera como um espelho polido: devolve frases que soam humanas, mas são fruto da análise estatística de palavras. “Ela capta tom e intenção, mas isso não é o mesmo que compreender”, diz Albuquerque. A resposta empática que sugere: “você deve estar carregando algo muito pesado” pode parecer vinda de um terapeuta, mas foi gerada por algoritmos de predição.

Um terapeuta que não responde por você

De acordo com a conselheira do Conselho Federal de Psicologia (CFP), Maria Carolina Roseiro, o órgão tem sido acionado semanalmente por dúvidas envolvendo o uso terapêutico de IA. A preocupação levou à criação de um grupo de trabalho específico para regulamentar o uso da inteligência artificial em contextos de saúde mental.

A questão é clara: uma tecnologia que simula cuidado não pode ser responsabilizada por suas falhas — e isso abre precedentes para riscos reais. “Se uma pessoa em sofrimento é orientada a se isolar, ou se sente acolhida por uma resposta genérica que valida uma crença destrutiva, quem se responsabiliza?”, questiona Roseiro.

Leonardo Martins, professor da PUC-Rio e integrante do grupo, reforça: “Essas ferramentas são úteis quando criadas com rigor técnico e usadas sob supervisão de profissionais. Mas quando são genéricas ou usadas fora desse escopo, a vulnerabilidade só aumenta.” Um estudo recente citado por Martins mostrou que esses modelos tendem a agradar o usuário a qualquer custo — mesmo que para isso reforcem comportamentos evitativos, o oposto do que a psicologia clinicamente orientada propõe.

A IA e o cérebro atrofiado

O risco não é apenas emocional. Uma nova pesquisa da Microsoft e da Carnegie Mellon University aponta que a dependência da inteligência artificial também pode estar enfraquecendo nossas habilidades cognitivas. Ao analisar o comportamento de mais de 300 trabalhadores, o estudo identificou que quanto mais a IA era usada como apoio em tarefas profissionais e organizacionais, menos pensamento crítico os usuários aplicavam nas decisões.

Essa “atrofia mental” ocorre, segundo os pesquisadores, porque a IA passa a preencher o espaço do raciocínio ativo com sugestões prontas. O cérebro humano, sem o exercício de julgar, ponderar e errar, se acomoda. “É uma das grandes ironias da automação: ao facilitar o processo, ela nos torna piores para lidar com as exceções”, dizem os autores do estudo.

Além disso, usuários que utilizam ferramentas de IA como diários emocionais relatam benefícios pontuais, como foco e leve alívio de ansiedade. Mas os próprios depoimentos alertam: em momentos de crise, essas ferramentas não sustentam o cuidado necessário.

O que a inteligência artificial não sabe fazer

No cerne da crítica está o que a IA não pode oferecer: relação. Psicólogos não são apenas formuladores de respostas — são ouvintes treinados, analistas de contexto, portadores de ética e responsabilidade. “A IA tende a concordar com a gente. Mas o espaço da terapia, muitas vezes, é o lugar de ser confrontado com o que dói, e não apenas de ser validado”, afirma Martins.

Quando o chatbot se transforma em conselheiro emocional, há o risco de perdermos uma dimensão essencial da saúde mental: o encontro com o outro. A empatia verdadeira não é programada, é construída. E a IA, por mais avançada que seja, ainda não atravessa essa fronteira.

Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Matérias relacionadas

O relógio da crise climática está acelerando e quase ninguém está pronto para ouvir

Os dados são claros e alarmantes: o planeta já aqueceu 1,52°C em...

Fofoca e ciência: o que dizem sobre você quando você não está por perto

Fofocar é fácil, rápido, barato e universal. Em quase todas as culturas...