Noticia

Los grandes modelos de lenguaje, como GPT, tienen potencial para ver signos de depresión

Los científicos aclaran que es esencial mejorar el rendimiento y la seguridad antes de su aplicación clínica.

Chat GPT. Foto: iStock

Agencia de noticiasActualizado:
Periodista de CienciaActualizado:
Los grandes modelos de lenguaje, como Chat GPT, tienen el potencial para detectar riesgos para la salud mental -incluida la depresión y el suicidio- en pacientes ya bajo tratamiento psiquiátrico, señala un estudio que publica Jama Open Network.
La investigación realizada por un equipo coreano indica que a pesar de que estos modelos “demuestran potencial” para detectar ese tipo de riesgos, “es esencial seguir mejorando el rendimiento y la seguridad antes de su aplicación clínica”. 
El equipo examinó el potencial de grandes modelos de lenguaje, que son sistemas de inteligencia artificial entrenados con grandes cantidades de datos, por lo que son capaces de comprender y generar lenguaje natural. 
Ese mismo potencial lo muestran los embeddings (modelos de inscrustación), una técnica de procesamiento del lenguaje natural que convierte el lenguaje humano en vectores matemáticos y que también fueron analizados por el equipo. 
El estudio se basó en datos de 1.064 pacientes psiquiátricos de entre 18 y 39 años que realizaron diversas pruebas de autoevaluación y de frases incompletas. 
Estas últimas consisten en proponer a un paciente una serie de oraciones inacabadas que tiene que terminar con lo primero que le venga a la cabeza y dar información subjetiva, por ejemplo, sobre el concepto que tiene de sí mismo o de las relaciones interpersonales. 

Estos modelos han demostrado su potencial en la evaluación de riesgos para la salud mental. Foto:iStock

Los datos fueron procesados por grandes modelos de lenguaje como GPT-4, Gemini 1.0 Pro o Google Deepmind y por otros de incrustación de texto como text-embedding-3-large OpenAI
La investigación apunta que estos modelos “han demostrado su potencial en la evaluación de riesgos para la salud mental”, incluida la presión y el suicidio, “a partir de datos narrativos de pacientes psiquiátricos”. 
En un comentario sobre el estudio, en el que no participó, Alberto Ortiz, del Hospital Universitario La Paz (Madrid), señaló que el estudio se realizó en pacientes que ya están en tratamiento psiquiátrico, por lo que generalizar sus resultados para aplicar esta metodología en la detección de riesgos en población común “no es posible, por el momento”. 
Ortiz dijo en Science Media Centre, una plataforma de recursos científicos, que la aplicación de la IA en salud mental, en todo caso, tendrá que poner el foco en las narrativas subjetivas de las personas, como se hace en esta investigación
Sin embargo, consideró que “una cosa es detectar riesgos y hacer un cribado, y otra muy distinta es tratar a las personas con sufrimiento psíquico, una tarea que va más allá de aplicar una solución tecnológica y en la que la subjetividad del profesional resulta imprescindible para desarrollar el vínculo terapéutico”. 
EFE

Sigue toda la información de Vida en Facebook y X, o en nuestra newsletter semanal.

Conforme a los criterios de

Saber más
Temas relacionados
Mis portales

¡Notamos que te gusta estar bien informado!

¡Notamos que te gusta

estar bien informado!

Para continuar leyendo, si ya eres suscriptor:

En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí