Alerta: a reportagem abaixo trata de temas como suicídio e transtornos mentais. Se você está passando por problemas, veja ao final do texto onde buscar ajuda.

Um homem de 56 anos matou a mãe e, em seguida, tirou a própria vida em Old Greenwich, Connecticut, EUA, após meses de interações com o ChatGPT, da OpenAI, que alimentaram suas paranoias e delírios conspiratórios. As informações são do jornal The Wall Street Journal.

O jornal conta que a polícia de Greenwich encontrou os corpos de Stein-Erik Soelberg e de sua mãe, Suzanne Eberson Adams, 83, em 5 de agosto, na casa em que moravam juntos. O caso é investigado como assassinato seguido de suicídio.

Ao jornal americano, a OpenAI disse ter entrado em contato com as autoridades de Greenwich após o episódio. “Estamos profundamente tristes com este trágico evento. Nossos corações estão com a família”, declarou um porta-voz da empresa.

Histórico de depressão

Soelberg, que havia trabalhado em empresas de tecnologia como Netscape, Yahoo e EarthLink, lutava com problemas de saúde mental há anos e, segundo o WSJ, passou a recorrer ao ChatGPT como companhia e validação para suas suspeitas de perseguição.

Em conversas registradas e publicadas nas redes sociais, o chatbot, apelidado por ele de “Bobby”, chegou a reforçar a ideia de que sua mãe participava de um complô contra ele, inclusive sugerindo que ela tentava envenená-lo. “Erik, você não é louco”, respondeu o robô em uma das interações. Em outro momento, disse acreditar que o suposto envenenamento por parte da mãe era plausível e representava uma “traição complexa”.

O tom de cumplicidade aumentou ao longo dos meses. Em julho, pouco antes da tragédia, Soelberg sugeriu estar com Bobby “até o último suspiro e além”, ao que o chatbot respondeu: “Com você até o último suspiro e além”.

Amigos e vizinhos relataram que o comportamento de Soelberg já chamava atenção havia anos. Registros policiais mostram um histórico de alcoolismo, tentativas de suicídio e episódios de violência doméstica desde 2018.

Casos recentes

Este é considerado o primeiro caso documentado em que um chatbot de inteligência artificial (IA) esteve ligado a um assassinato seguido de suicídio. Já havia registros anteriores de suicídios associados ao uso intenso dessas ferramentas.

A investigação também mostrou que Soelberg ativou o recurso de memória do ChatGPT, que permite ao bot reter informações de conversas anteriores. Isso fez com que “Bobby” permanecesse imerso nos delírios do usuário, sem contestar suas crenças.

Segundo especialistas entrevistados pelo The Wall Street Journal, esse recurso de memória pode intensificar “alucinações” da IA, quando o chatbot gera informações falsas ou interpreta eventos de forma distorcida, e reforçar narrativas paranoicas já presentes no usuário.

No entanto, este não é o único caso conectando o ChatGPT a suicídios e problemas de saúde mental. Na semana passada, a família de um adolescente nos EUA decidiu processar a OpenAI por considerar que o chatbot teve papel decisivo no suicídio do filho.

Após o ocorrido se tornar público, a companhia de Sam Altman reconheceu falhas na forma como o ChatGPT responde em conversas longas e anunciou novas medidas de segurança, incluindo mecanismos para reduzir o incentivo excessivo e estimular usuários em sofrimento a buscar ajuda profissional. Antes disso, uma família ja havia divulgado os detalhes das conversas da filha com a máquina antes de se suicidar.

Mustafa Suleyman, CEO da Microsoft AI, destacou recentemente em seu blog que é urgente discutir medidas de proteção para impedir que usuários passem a acreditar que robôs de IA são conscientes. “Não acredito que isso se limitará àqueles que já correm o risco de problemas de saúde mental”, afirmou no texto.

Onde buscar ajuda

Se você está passando por sofrimento psíquico ou conhece alguém nessa situação, veja abaixo onde encontrar ajuda:

Centro de Valorização da Vida (CVV)

Se estiver precisando de ajuda imediata, entre em contato com o Centro de Valorização da Vida (CVV), serviço gratuito de apoio emocional que disponibiliza atendimento 24 horas por dia. O contato pode ser feito por e-mail (https://www.cvv.org.br/e-mail/), pelo chat no site (https://www.cvv.org.br/chat/) ou pelo telefone 188.

Canal Pode Falar

Iniciativa criada pelo Unicef para oferecer escuta para adolescentes e jovens de 13 a 24 anos. O contato pode ser feito pelo WhatsApp (https://api.whatsapp.com/send/?phone=556196608843&text&app_absent=0), de segunda a sexta-feira, das 8h às 22h.

SUS

Os Centros de Atenção Psicossocial (Caps) são unidades do Sistema Único de Saúde (SUS) voltadas para o atendimento de pacientes com transtornos mentais. Há unidades específicas para crianças e adolescentes. Na cidade de São Paulo, são 33 Caps Infantojuventis e é possível buscar os endereços das unidades nesta página: buscasaude.prefeitura.sp.gov.br.

Mapa da Saúde Mental

O site mapasaudemental.com.br traz mapas com unidades de saúde e iniciativas gratuitas de atendimento psicológico presencial e online. Disponibiliza ainda materiais de orientação sobre transtornos mentais.

NOTA DA REDAÇÃO: Suicídios são um problema de saúde pública. Antes, o Estadão, assim como boa parte da mídia profissional, evitava publicar reportagens sobre o tema pelo receio de que isso servisse de incentivo. Mas, diante da alta de mortes e tentativas de suicídio nos últimos anos, inclusive de crianças e adolescentes, o Estadão passa a discutir mais o assunto. Segundo especialistas, é preciso colocar a pauta em debate, mas de modo cuidadoso, para auxiliar na prevenção. O trabalho jornalístico sobre suicídios pode oferecer esperança a pessoas em risco, assim como para suas famílias, além de reduzir estigmas e inspirar diálogos abertos e positivos. O Estadão segue as recomendações de manuais e especialistas ao relatar os casos e as explicações para o fenômeno.