Close Menu
    Facebook X (Twitter) Instagram
    Análisis Urbano
    Facebook X (Twitter) Instagram YouTube TikTok
    • Actualidad
      • Nacional
      • Internacional
      • Regional
        • Bogotá
        • Valle del Cauca
    • Análisis y Opinión
      • Análisis
      • Editorial
      • Reportaje Especial
    • Seguridad y Justicia
      • Conflicto Urbano y Rural
      • Criminalidad Oculta
      • Denuncia
      • Desaparecidos
    • Sociedad
      • Política
      • DD.HH.
      • Arte y Cultura
      • Entretenimiento
      • Deportes
      • Mascotas
    • Economía y Desarrollo
      • Economía
      • Emprendimiento
      • Ciencia
      • Tecnología
    • Ambiental
    • Medellín y Monitoreo en Antioquia
      • Medellín
      • Suroeste
      • Occidente
      • Norte
      • Valle de Aburrá
      • Bajo Cauca
      • Magdalena Medio
      • Nordeste
      • Oriente
      • Urabá
    • Monitoreo Colombia
      • Atlántico
      • Bolívar
      • Cauca
      • Cesar
      • Chocó
      • Córdoba
      • Cundinamarca
      • Eje Cafetero
      • Guanía
      • Guaviare
      • Huila
      • Llanos Orientales
      • La Guajira
      • Magdalena
      • Nariño
      • Norte de Santander
      • Santander
      • Sucre
      • Tolima
      • Valle del Cauca
    Análisis Urbano
    Home»Actualidad»Los grandes modelos de lenguaje, como GPT, tienen potencial para ver signos de depresión
    Actualidad

    Los grandes modelos de lenguaje, como GPT, tienen potencial para ver signos de depresión

    23 de mayo de 2025
    Facebook Twitter Telegram Copy Link Email WhatsApp
    Síguenos
    Facebook X (Twitter) Instagram YouTube TikTok
    Imagen de archivo de un teléfono móvil con el logotipo de Chat GPT. EFE/EPA/ETIENNE LAURENT
    Compartir
    Facebook Twitter Email Copy Link Telegram WhatsApp

    Redacción Ciencia, 23 de mayo de 2025.- Los grandes modelos de lenguaje, como Chat GPT, tienen el potencial para detectar riesgos para la salud mental -incluida la depresión y el suicidio- en pacientes ya bajo tratamiento psiquiátrico, señala un estudio que publica Jama Open Network.

    La investigación realizada por un equipo coreano indica que a pesar de que estos modelos “demuestran potencial” para detectar ese tipo de riesgos, “es esencial seguir mejorando el rendimiento y la seguridad antes de su aplicación clínica”.

    Colombia radica ley de inteligencia artificial para que esté «al servicio del ser humano»

    El equipo examinó el potencial de grandes modelos de lenguaje, que son sistemas de inteligencia artificial entrenados con grandes cantidades de datos, por lo que son capaces de comprender y generar lenguaje natural.

    Ese mismo potencial lo muestran los embeddings (modelos de inscrustación), una técnica de procesamiento del lenguaje natural que convierte el lenguaje humano en vectores matemáticos y que también fueron analizados por el equipo.

    El estudio se basó en datos de 1.064 pacientes psiquiátricos de entre 18 y 39 años que realizaron diversas pruebas de autoevaluación y de frases incompletas.

    Estas últimas consisten en proponer a un paciente una serie de oraciones inacabadas que tiene que terminar con lo primero que le venga a la cabeza y dar información subjetiva, por ejemplo, sobre el concepto que tiene de sí mismo o de las relaciones interpersonales.

    Los datos fueron procesados por grandes modelos de lenguaje como GPT-4, Gemini 1.0 Pro o Google Deepmind y por otros de incrustación de texto como text-embedding-3-large OpenAI.

    La investigación apunta que estos modelos “han demostrado su potencial en la evaluación de riesgos para la salud mental”, incluida la presión y el suicidio, “a partir de datos narrativos de pacientes psiquiátricos”.

    Con Inteligencia Artificial, la institución universitaria ITM, de Medellín, busca revolucionar la agricultura urbana

    En un comentario sobre el estudio, en el que no participó, Alberto Ortiz, del Hospital Universitario La Paz (Madrid), señaló que el estudio se realizó en pacientes que ya están en tratamiento psiquiátrico, por lo que generalizar sus resultados para aplicar esta metodología en la detección de riesgos en población común “no es posible, por el momento”.

    Ortiz dijo en Science Media Centre, una plataforma de recursos científicos, que la aplicación de la IA en salud mental, en todo caso, tendrá que poner el foco en las narrativas subjetivas de las personas, como se hace en esta investigación.

    Sin embargo, consideró que “una cosa es detectar riesgos y hacer un cribado, y otra muy distinta es tratar a las personas con sufrimiento psíquico, una tarea que va más allá de aplicar una solución tecnológica y en la que la subjetividad del profesional resulta imprescindible para desarrollar el vínculo terapéutico”.

    EFE

    Chat GPT Gemini 1.0 Pro Google Deepmind inteligencia artificial (AI) modelos de lenguaje Salud mental signos de depresión
    Síguenos Síguenos Síguenos Síguenos Síguenos
    Share. Facebook Twitter Telegram Email Copy Link WhatsApp

    Noticias Similares

    PTAR San Fernando celebra 25 años al servicio de las comunidades y del saneamiento del río Aburrá-Medellín

    23 de mayo de 2025

    EPM inició la construcción de parque público con sendero para la comunidad de Apartadó

    23 de mayo de 2025

    La Red de Músicas de Medellín representó por primera vez a Colombia en feria internacional de Alemania

    23 de mayo de 2025

    El Distrito es reconocido internacionalmente por fortalecer la participación ciudadana con innovación tecnológica

    23 de mayo de 2025

    Medellín se une a la jornada departamental de vacunación y se acerca al 95 % en cobertura infantil

    23 de mayo de 2025

    El Distrito entrega un cromatógrafo a Medicina Legal para fortalecer investigaciones criminales

    23 de mayo de 2025
    Análisis Urbano
    Facebook X (Twitter) Instagram YouTube TikTok
    • Inicio
    • Contáctenos
    • Quiénes somos
    • Política de Privacidad
    © 2025 Análisis Urbano - Prensa Urbana y Rural

    Type above and press Enter to search. Press Esc to cancel.