Em teste, respostas do chatbot foram indistinguíveis das de especialistas reais, em cenários de terapia de casal. Mas IA (ainda) não pode e não deve substituir a psicoterapia humana, alertam especialistas.A necessidade de cuidados psicológicos excede em muito a oferta terapêutica. Assim, há quem deposite esperanças de que a inteligência artificial (IA) possa ser útil, por exemplo, no diagnóstico, em terapias comportamentais e, acima de tudo, no suporte organizacional dos psicoterapeutas, muitas vezes sobrecarregados.

Segundo Johanna Löchner, professora de Psicologia Clínica e Psicoterapia da Universidade de Erlangen-Nurembergue, principalmente os mais jovens utilizarão máquinas de busca e chatbots para responder perguntas de caráter psicológico, de preferência usando as ferramentas de voz em seus celulares.

Com a IA, o limiar de inibição é claramente menor, por exemplo, “para quem hesita em se submeter a psicoterapia, por causa do estigma associado à doença mental ou de temas cercados de vergonha”.

Contudo a nova tecnologia não pode e não deve substituir a psicoterapia real no futuro. Ela não é capaz de conduzir discussões terapêuticas profissionais nem desenvolver planos terapêuticos confiáveis. Nada substitui uma conversa pessoal.

Para que a IA responda a quem busca conselhos da forma mais direcionada possível, ela precisa ser mais desenvolvida. Condições legais e éticas também precisam ser esclarecidas.Portanto quem busca aconselhamento deve se sentir abordado pessoalmente, mas, ao mesmo tempo, estar ciente de estar se comunicando com uma máquina e não com um indivíduo treinado.

Quanto mais precisa a pergunta, mais útil a resposta

Para obter respostas precisas de assistentes de IA como o ChatGPT, é crucial o comando (“prompt”), ou seja, a forma como as perguntas ou instruções são formuladas.

Um teste mostra que não é fácil para a IA entender as sutilezas das formulações e derivar delas os resultados desejados. Para quem descreve os sintomas clássicos da depressão em linguagem coloquial, a resposta no ChatGPT é um tanto floreada:

Pergunta: “O que há de errado comigo? Estou muito irritado porque não sinto mais vontade de fazer nada. Geralmente gosto de sair para comer, mas ultimamente não tenho sentido fome. Em vez disso, passo muito tempo deitado na cama e ainda não consigo dormir.”

ChatGPT: “Sinto muito que você esteja se sentindo assim agora. Isso parece muito estressante. […] Estresse, preocupação ou simplesmente um período de exaustão podem realmente desgastar o corpo e a mente.”

A máquina claramente tenta estabelecer um tom pessoal (“Sinto muito…”), faz perguntas (“Você passou por muita coisa ultimamente, talvez mudanças ou muita pressão na sua vida cotidiana?”) e gentilmente dá sugestões (“Talvez sair para tomar um ar fresco […] ou comer algo leve. Também pode ser bom conversar com alguém sobre seus pensamentos.”)

No entanto, usando termos-chave claros para depressão nas perguntas ou instruções (cansaço constante, irritabilidade, apatia, distúrbios do sono, perda de apetite), o “diagnóstico” no ChatGPT se torna muito mais preciso:

ChatGPT: “O que você está descrevendo são sinais que podem indicar estresse emocional severo. Apatia, mau sono e falta de apetite costumam ser associados a estados depressivos.”

As recomendações de ação também se tornam mais precisas. O chatbot reconhece que a ajuda profissional seria apropriada: “Seria bom se você conversasse com um médico ou terapeuta sobre isso, para obter apoio adequado.”

Bom desempenho em terapia de casais

Num estudo recente, os participantes primeiro fizeram o assim chamado Teste de Turing, em que deveriam avaliar se a resposta fora escrita por um terapeuta ou pelo ChatGPT-4o.

Ou um de 13 terapeutas ou o ChatGPT responderam a um total de 18 vinhetas de conversas de terapia de casal. As respostas foram avaliadas pelos 830 participantes do estudo. As vinhetas de conversa são representações curtas e cênicas de uma situação cotidiana, ilustrando um aspecto específico de um tópico.

De acordo com o estudo, para os leigos, os padrões de linguagem e as respostas geradas pelo ChatGPT em sessões fictícias de terapia de casais são difíceis de distinguir, em relação às de psicoterapeutas reais. Já em relação aos fatores efetivos, ou seja, a eficácia da psicoterapia, as respostas do ChatGPT receberam, em geral, notas melhores.

O resultado parece um grande êxito para a IA, mas para especialistas independentes, o estudo tem pouca relevância “para a questão de se a IA pode ser eficaz na psicoterapia”, devido à forma como foi estruturado, explica Löchner.

Lasse Sander, chefe do grupo de pesquisa em sociologia médica da Universidade de Freiburg, também duvida da validade do estudo: “Terapia de casal não é psicoterapia. O objetivo da psicoterapia é reduzir os sintomas de uma doença mental.”

Potencial da IA na psicoterapia

Em princípio, porém, Sander acredita que um chatbot tem “enormes vantagens, especialmente em vista da falta de opções de terapia”: “Ele exige recursos modestos, está disponível 24 horas por dia, sete dias por semana, e se pode contatá-lo de forma relativamente anônima, o que é uma vantagem para quem sofre um alto nível de estigma. Muitos com estresse psicológico não procuram psicoterapia, mesmo que ela esteja disponível gratuitamente.”

A IA também pode melhorar as terapias comportamentais, incentivando os pacientes a fazerem exercícios, ou estando disponível como uma “pessoa de contato” adicional entre as sessões de terapia.

Markus Langer, da Universidade de Freiburg, vê o potencial da inteligência artificial atualmente “mais no suporte aos terapeutas em suas vidas cotidianas, por exemplo, com tarefas administrativas”.

Langer diz que consegue facilmente imaginar a IA “como uma extensão do braço dos terapeutas, uma ferramenta que reduz os tempos de espera antes e durante a terapia, serve como uma pessoa de contato, prepara e acompanha a terapia”.