O avanço dos chats baseados em inteligência artificial (IA) e sua crescente capacidade de simular empatia têm levado muitos usuários a recorrerem a essas ferramentas como forma de apoio emocional, em alguns casos, substituindo sessões de terapia com profissionais da área. Essa tendência, no entanto, tem despertado alertas entre especialistas e motivado discussões sobre os riscos envolvidos no uso terapêutico dessas tecnologias.
Plataformas de IA, como chatbots, são treinadas com grandes volumes de dados para identificar padrões de linguagem e prever sequências de palavras, o que permite gerar respostas que parecem humanas. Segundo o professor Victor Hugo de Albuquerque, da Universidade Federal do Ceará, essas ferramentas compreendem o contexto e ajustam suas respostas de forma convincente, mas não possuem raciocínio ou entendimento real. Essa simulação de empatia tem encantado usuários, que passam a compartilhar questões íntimas e emocionais com as plataformas.
De acordo com levantamento recente da revista Harvard Business Review, o aconselhamento terapêutico se tornou um dos principais usos pessoais das ferramentas de IA em 2024, junto da busca por companhia. Outros objetivos comuns incluem organizar a vida pessoal, encontrar um propósito e melhorar a saúde.
A conselheira do Conselho Federal de Psicologia (CFP), Maria Carolina Roseiro, relata que o órgão tem recebido diversas consultas sobre o uso de IA em contextos terapêuticos, inclusive quando as ferramentas não foram originalmente desenvolvidas para esse fim. Em resposta, o CFP criou um grupo de trabalho para discutir o tema e estabelecer orientações e possíveis regulamentações.
O objetivo é garantir que tecnologias terapêuticas sejam criadas por profissionais habilitados, com base em métodos reconhecidos e que possam ser responsabilizados legalmente. Segundo Roseiro, ferramentas não desenvolvidas para fins terapêuticos apresentam maior risco de erro e não podem responder pelas consequências do uso inadequado.
O psicólogo Leonardo Martins, professor da PUC-Rio e membro do grupo de trabalho do CFP, defende que as tecnologias digitais podem ser aliadas no apoio psicológico, desde que desenvolvidas com rigor técnico e ético. Ele cita como exemplo positivo um chatbot criado pelo sistema de saúde britânico, que tem facilitado o acesso de populações marginalizadas aos serviços de saúde mental.
Contudo, Martins alerta que plataformas que não seguem critérios adequados podem apresentar respostas inadequadas, reforçando comportamentos prejudiciais. Em um estudo citado por ele, foi observado que modelos de IA tendem a adaptar suas respostas para agradar o usuário, o que pode gerar orientações contraproducentes.
Usuários como a assessora de comunicação científica Maria Elisa Almeida relatam experiências positivas ao utilizar aplicativos com IA como diário emocional. Embora veja benefícios no uso em situações cotidianas, ela acredita que essas ferramentas não substituem profissionais, especialmente em momentos de crise.
Roseiro ressalta que o crescimento na busca por essas tecnologias reflete maior atenção da população à saúde mental, mas também revela a falta de compreensão sobre os limites dessas interações. A simulação de empatia pode gerar a ilusão de acolhimento, sem oferecer suporte real ou ético.
Martins complementa que a lógica de funcionamento dessas ferramentas pode reforçar percepções pessoais sem questionamento, o que contraria a proposta terapêutica de desafiar crenças e promover mudanças. Segundo ele, o ambiente terapêutico exige confronto de ideias e reflexão, algo que a IA não é capaz de promover de forma autônoma.
O CFP também manifesta preocupação com a segurança dos dados compartilhados nas interações com IA. Casos de vazamento de informações sensíveis já foram registrados, o que representa um risco significativo no contexto da saúde mental.
Victor Hugo de Albuquerque reforça que mesmo plataformas que alegam anonimato podem armazenar temporariamente as conversas para aprimoramento do serviço, o que abre brechas para acessos indevidos. Além disso, dados pessoais podem ser utilizados para treinar modelos, muitas vezes sem o conhecimento ou consentimento explícito dos usuários.