Modelos de linguagem de grande porte, como o ChatGPT, têm potencial para identificar sinais de depressão e risco de suicídio em pacientes que já estão em tratamento psiquiátrico. A conclusão é de um estudo conduzido por uma equipe de pesquisadores da Coreia do Sul, publicado na revista científica JAMA Network Open.
Segundo os autores, apesar do potencial desses modelos, ainda é necessário aprimorar o desempenho e a segurança das ferramentas antes que possam ser usadas em contextos clínicos reais.
A pesquisa avaliou a capacidade dos chamados large language models (LLMs, na sigla em inglês) — sistemas de inteligência artificial treinados com enormes volumes de dados — de interpretar e gerar linguagem natural de forma eficaz. Também foram analisadas técnicas conhecidas como embeddings, que transformam a linguagem humana em vetores matemáticos e são amplamente utilizadas no processamento de linguagem natural.
O estudo envolveu 1.064 pacientes psiquiátricos, com idades entre 18 e 39 anos, que responderam a testes de autoavaliação e atividades com frases incompletas — um método em que a pessoa deve completar frases com a primeira coisa que vem à mente, revelando aspectos subjetivos como autoestima e relações interpessoais.
Os dados foram processados por modelos como GPT-4, Gemini 1.0 Pro, Google Deepmind e text-embedding-3-large, da OpenAI. Os resultados mostraram que os sistemas de IA foram capazes de identificar sinais de estresse, depressão e ideação suicida a partir das narrativas fornecidas pelos pacientes.
O nefrologista espanhol Alberto Ortiz, do Hospital Universitário La Paz, em Madri, comentou o estudo ao Science Media Centre. Embora não tenha participado da pesquisa, ele destacou a importância da abordagem, mas fez uma ressalva: os participantes já estavam em tratamento psiquiátrico, o que limita a aplicação dos resultados para a população em geral.
Ortiz também afirmou que o uso da IA na saúde mental deve se concentrar nas narrativas subjetivas das pessoas, como foi feito neste estudo. No entanto, ele reforçou que há uma diferença entre identificar riscos e oferecer tratamento. “Tratar alguém que sofre mentalmente vai muito além da tecnologia — envolve vínculo, escuta e sensibilidade profissional, elementos que uma máquina ainda não consegue oferecer”, concluiu.
Leia Também: Estudo aponta que atmosfera 'misteriosa' de Titã oscila com as estações