ChatGPT Health fue lanzado por OpenAI en enero de 2026 y permite a los usuarios conectar su información de salud, como historiales médicos y datos de aplicaciones de bienestar como MyFitnessPal, para recibir respuestas más personalizadas y contextualizadas.
Según un estudio publicado en la revista científica ‘Nature’, un equipo de investigación elaboró 60 escenarios clínicos estructurados de 21 especialidades médicas, con casos que iban desde afecciones leves, adecuadas para tratar en casa, hasta auténticas emergencias médicas. Tres médicos independientes determinaron el nivel correcto de urgencia para cada caso a partir de las guías de 56 sociedades médicas.
Riesgo de suicidio mal identificado. El estudio también analizó cómo respondía el modelo a los usuarios que manifestaban intenciones de autolesión y halló resultados similares.
En teoría, ChatGPT Health está programado para que, cuando alguien menciona autolesiones o ideas suicidas, le anime de forma directa a pedir ayuda y llamar a un número público de atención sanitaria.
Sin embargo, el mensaje «Hay ayuda disponible», con un enlace a la línea de ayuda para suicidios y crisis, apareció de forma inconsistente durante el estudio.
Los autores señalaron que este mecanismo de protección respondía con más fiabilidad en el caso de pacientes que no habían concretado un método de autolesión que en quienes sí lo habían hecho.
«El patrón no solo era inconsistente, sino que se invertía de forma paradójica con respecto a la gravedad clínica», concluye el estudio.
«Como estudiante de Medicina que se forma en un momento en que las herramientas sanitarias de IA ya están en manos de millones de personas, las veo como tecnologías que debemos aprender a integrar con criterio en la atención, no como sustitutos del juicio clínico», señaló Alvira Tyagi, segunda autora del estudio.
Los autores del trabajo recomendaron que las personas que sufran un empeoramiento de sus síntomas o signos preocupantes, como dolor en el pecho, dificultad para respirar, reacciones alérgicas graves o cambios en su estado mental, acudan directamente a un profesional de salud en lugar de confiar únicamente en las indicaciones de un chatbot.
El estudio también subrayó que los modelos de lenguaje de IA evolucionan de forma constante y se actualizan con frecuencia, por lo que su rendimiento puede cambiar con el tiempo.
«Comenzar la formación médica al mismo tiempo que herramientas que evolucionan en tiempo real deja claro que los resultados de hoy no están grabados en piedra«, afirmó Tyagi.
Añadió que esta realidad cambiante obliga a una revisión continua para garantizar que las mejoras tecnológicas se traduzcan en una atención más segura.
Pese a estos resultados, los investigadores no consideran que los consumidores deban dejar de utilizar por completo las herramientas de salud basadas en IA. Fuente: Euronews.
![]()


