No seré hipócrita. Millones de personas ya hablaban de salud con ChatGPT mucho antes de que alguien decidiera ponerle nombre y apellido a la experiencia. Síntomas difusos, analíticas incomprensibles, dietas, dolores persistentes o simples miedos nocturnos. Según los propios datos de OpenAI, más de doscientos millones de usuarios preguntan cada semana cuestiones relacionadas con su salud. Lo verdaderamente novedoso no es el comportamiento, sino su institucionalización.

ChatGPT Health nace como un espacio específico dentro del ecosistema ChatGPT, diseñado para centralizar y separar las conversaciones médicas del resto de temas. A partir de ahora, cuando un usuario formule una pregunta relacionada con su salud, la inteligencia artificial le sugerirá continuar en ese entorno específico. La promesa es orden, continuidad y personalización. Aquí hablamos de tu cuerpo. En otro sitio, del resto del mundo.

La propuesta resulta seductora. El sistema recuerda conversaciones previas, tiene en cuenta hábitos ya mencionados y permite integrar informes médicos y aplicaciones de seguimiento físico como Apple Health o MyFitnessPal. El resultado es una inteligencia artificial que no responde en abstracto, sino con contexto. Tu contexto. Y ahí es donde empiezan los problemas de fondo.

Advertencias legales y la ilusión de seguridad

OpenAI insiste en subrayarlo con una precisión casi quirúrgica. ChatGPT Health no está diseñado para diagnosticar ni tratar enfermedades. No sustituye a profesionales sanitarios. No interpreta síntomas clínicos. Y, además, las conversaciones mantenidas en este entorno no se utilizan para entrenar los modelos de inteligencia artificial. Los datos, aseguran, están aislados y protegidos mediante cifrado especializado.

Todo eso puede ser cierto y, aun así, insuficiente. Estas advertencias cumplen una función legal, no pedagógica. No están pensadas para modificar el comportamiento real del usuario, sino para delimitar responsabilidades. Cuando alguien está preocupado por su salud, la letra pequeña pierde todo su valor disuasorio. Lo humano funciona así.

La combinación de lenguaje claro, tono seguro y referencias a datos personales genera una percepción de autoridad difícil de neutralizar. El sistema no duda, no vacila, no expresa incertidumbre. Responde. Y en materia de salud, eso pesa más que cualquier aviso genérico colocado al final de la pantalla.

Modelos de lenguaje y el riesgo de la plausibilidad médica

Conviene recordar algo esencial que suele perderse en el entusiasmo tecnológico. Los modelos de lenguaje como ChatGPT no saben qué es verdad y qué es error. Generan respuestas probables basadas en patrones estadísticos. Funcionan de forma aceptable para explicar conceptos generales, pero la medicina no se mueve en probabilidades abstractas, sino en decisiones concretas que afectan a personas concretas.

Numerosas investigaciones académicas han demostrado que los chatbots generativos producen respuestas médicamente plausibles aunque sean incorrectas o incompletas. No se trata de fallos anecdóticos, sino de un riesgo estructural. Cuando la inteligencia artificial se equivoca, lo hace con convicción, y esa convicción resulta especialmente peligrosa cuando se combina con datos reales del usuario.

Cuando la respuesta se apoya en historiales médicos, analíticas o hábitos personales, la IA deja de hablar en general y empieza a hablar de ti. Esa personalización genera una ilusión de segunda opinión médica que muchos usuarios no están preparados para manejar con la distancia crítica necesaria. Basta con imaginar a alguien que retrasa una visita médica porque una interpretación automatizada sonó tranquilizadora para entender el alcance del problema.

Los datos de salud como activo estratégico

Más allá de la precisión clínica, hay una cuestión que rara vez se aborda con claridad. Los datos médicos son uno de los activos más valiosos de la economía digital. No describen lo que compramos o lo que leemos, sino nuestra fragilidad, nuestras limitaciones físicas y nuestra biografía corporal.

OpenAI afirma que no utiliza los datos de ChatGPT Health para entrenar sus modelos de inteligencia artificial. Bien. Pero la simple recolección, estructuración y procesamiento de información médica crea un valor enorme por sí mismo. Historias clínicas completas, longitudinales y voluntariamente cedidas son un tesoro para cualquier empresa tecnológica.

Los datos médicos son uno de los activos más valiosos de la economía digital

Durante años, el acceso a este tipo de datos exigía acuerdos complejos con hospitales o aseguradoras. Aquí, en cambio, los datos llegan directamente del usuario, envueltos en una promesa de ayuda personalizada. En la economía digital, los datos nunca son un efecto colateral. Son el objetivo.

Impacto en la relación médico paciente

La tecnología no sólo transforma herramientas, transforma expectativas. Cada vez más profesionales sanitarios se encontrarán con pacientes que llegan a consulta condicionados por interpretaciones generadas por una inteligencia artificial. No como una simple curiosidad, sino como un marco mental previo.

El tiempo del médico es limitado y valioso. No está diseñado para deshacer narrativas automatizadas ni para explicar por qué lo que “dijo la IA” no se aplica a ese caso concreto. La relación médico paciente se basa en la confianza y en la responsabilidad. Introducir un intermediario que parece omnisciente, pero no asume responsabilidad clínica, tensiona esa relación desde la base.

A esto se suma un problema evidente de alfabetización sanitaria. No todos los usuarios tienen la misma capacidad para interpretar información médica. La inteligencia artificial no calibra ese nivel de comprensión. Responde con la misma fluidez a quien sabe leer una analítica que a quien no distingue un riesgo relativo de uno absoluto.

Un producto de consumo en un vacío regulatorio

ChatGPT Health se presenta como un producto de consumo, no como un dispositivo médico regulado. Eso implica que no está sujeto a los mismos estándares de evidencia, supervisión ni rendición de cuentas que una herramienta clínica tradicional. No necesita ensayos clínicos, ni validaciones regulatorias estrictas, ni responder ante autoridades sanitarias.

El resultado es un sistema que maneja datos extremadamente sensibles, ofrece interpretaciones personalizadas y opera a escala masiva sin el marco regulatorio que exigiríamos a cualquier tecnología médica convencional. Un vacío normativo que debería preocuparnos más de lo que parece.

¿Empoderamiento del paciente o delegación de criterio?

No niego la utilidad potencial de ChatGPT Health. Puede ayudar a entender un informe médico, a preparar preguntas para una consulta o a descifrar un lenguaje sanitario innecesariamente críptico. Todo eso tiene valor. El problema no está en la herramienta, sino en las expectativas que genera y en el contexto en el que se introduce.

Convertir la salud en un servicio digital es convertir la vulnerabilidad en negocio

Cuando una tecnología combina acceso a datos íntimos, capacidad narrativa convincente y apariencia de inteligencia, la frontera entre apoyo informativo y sustitución de criterio se vuelve peligrosamente difusa. Y cuando esa frontera se cruza, la responsabilidad se diluye.

Si algo sale mal, el sistema ya avisó. No diagnostica. No trata. No sustituye. El escudo legal permanece intacto. El impacto humano, no.

La salud no es un prompt

ChatGPT Health puede marcar un punto de inflexión en la relación entre inteligencia artificial y salud. No sólo por lo que ofrece, sino por cómo y a quién se lo ofrece. La promesa de empoderar al paciente resulta atractiva, pero no puede analizarse al margen de los incentivos económicos y estratégicos de la empresa que desarrolla la herramienta.

En una economía donde los datos son la materia prima esencial, el acceso a historiales médicos completos no es una funcionalidad menor. Es una jugada de enorme valor. Y mientras celebramos la comodidad de respuestas personalizadas y la supuesta democratización del conocimiento médico, los límites de responsabilidad, seguridad y ética siguen siendo difusos.

La salud no es un prompt. No es una respuesta probable ni una síntesis elegante. Antes de aceptar sin reflexión que una inteligencia artificial nos ayude a navegar nuestra salud, convendría preguntarnos si estamos preparados, como sociedad, para poner en el bolsillo de millones de personas un doctor digital sin regulación clínica, pero con acceso a los datos más íntimos que existen.

Porque buscar información es legítimo. Delegar la brújula cuando el terreno se vuelve peligroso, no tanto.

Resume el artículo con tu IA favorita

Artículo anteriorDía de Reyes, roscón, café y una vieja victoria: por qué existe la Pascua Militar
Artículo siguienteJamón, chuletón y el negocio de decirnos qué comer
Enrique Pampliega
Con más de cuatro décadas de trayectoria profesional, iniciada como contable y responsable fiscal, he evolucionado hacia un perfil orientado a la comunicación, la gestión digital y la innovación tecnológica. A lo largo de los años he desempeñado funciones como responsable de administración, marketing, calidad, community manager y delegado de protección de datos en diferentes organizaciones. He liderado publicaciones impresas y electrónicas, gestionado proyectos de digitalización pioneros y desarrollado múltiples sitios web para entidades del ámbito profesional y asociativo. Entre 1996 y 1998 coordiné un proyecto de recopilación y difusión de software técnico en formato CD-ROM dirigido a docentes y profesionales. He impartido charlas sobre búsqueda de empleo y el uso estratégico de redes sociales, así como sobre procesos de digitalización en el entorno profesional. Desde 2003 mantengo un blog personal —inicialmente como Blog de epampliega y desde 2008 bajo el título Un Mundo Complejo— que se ha consolidado como un espacio de reflexión sobre economía, redes sociales, innovación, geopolítica y otros temas de actualidad. En 2025 he iniciado una colaboración mensual con una tribuna de opinión en la revista OP Machinery. Todo lo que aquí escribo responde únicamente a mi criterio personal y no representa, en modo alguno, la posición oficial de las entidades o empresas con las que colaboro o he colaborado a lo largo de mi trayectoria.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí