Redacción Ciencia, 23 de mayo de 2025.- Los grandes modelos de lenguaje, como Chat GPT, tienen el potencial para detectar riesgos para la salud mental -incluida la depresión y el suicidio- en pacientes ya bajo tratamiento psiquiátrico, señala un estudio que publica Jama Open Network.
La investigación realizada por un equipo coreano indica que a pesar de que estos modelos “demuestran potencial” para detectar ese tipo de riesgos, “es esencial seguir mejorando el rendimiento y la seguridad antes de su aplicación clínica”.
El equipo examinó el potencial de grandes modelos de lenguaje, que son sistemas de inteligencia artificial entrenados con grandes cantidades de datos, por lo que son capaces de comprender y generar lenguaje natural.
Ese mismo potencial lo muestran los embeddings (modelos de inscrustación), una técnica de procesamiento del lenguaje natural que convierte el lenguaje humano en vectores matemáticos y que también fueron analizados por el equipo.
El estudio se basó en datos de 1.064 pacientes psiquiátricos de entre 18 y 39 años que realizaron diversas pruebas de autoevaluación y de frases incompletas.
Estas últimas consisten en proponer a un paciente una serie de oraciones inacabadas que tiene que terminar con lo primero que le venga a la cabeza y dar información subjetiva, por ejemplo, sobre el concepto que tiene de sí mismo o de las relaciones interpersonales.
Los datos fueron procesados por grandes modelos de lenguaje como GPT-4, Gemini 1.0 Pro o Google Deepmind y por otros de incrustación de texto como text-embedding-3-large OpenAI.
La investigación apunta que estos modelos “han demostrado su potencial en la evaluación de riesgos para la salud mental”, incluida la presión y el suicidio, “a partir de datos narrativos de pacientes psiquiátricos”.
En un comentario sobre el estudio, en el que no participó, Alberto Ortiz, del Hospital Universitario La Paz (Madrid), señaló que el estudio se realizó en pacientes que ya están en tratamiento psiquiátrico, por lo que generalizar sus resultados para aplicar esta metodología en la detección de riesgos en población común “no es posible, por el momento”.
Ortiz dijo en Science Media Centre, una plataforma de recursos científicos, que la aplicación de la IA en salud mental, en todo caso, tendrá que poner el foco en las narrativas subjetivas de las personas, como se hace en esta investigación.
Sin embargo, consideró que “una cosa es detectar riesgos y hacer un cribado, y otra muy distinta es tratar a las personas con sufrimiento psíquico, una tarea que va más allá de aplicar una solución tecnológica y en la que la subjetividad del profesional resulta imprescindible para desarrollar el vínculo terapéutico”.
EFE