En conversaciones cotidianas, cada vez es más frecuente escuchar que pacientes consultan sus síntomas o resultados de laboratorio con herramientas de inteligencia artificial. Este fenómeno coincide con el reciente lanzamiento de ChatGPT Health, una nueva función integrada a la plataforma de OpenAI que busca concentrar, en un solo espacio, información clínica, estudios médicos, aplicaciones de salud y métricas de actividad física obtenidas de dispositivos inteligentes, todo de manera personalizada.
La herramienta forma parte de los planes de suscripción de la aplicación y se presenta como una alternativa accesible para quienes desean organizar y comprender mejor sus datos de salud. Ante este avance tecnológico surge una pregunta inevitable: ¿estamos frente a un cambio profundo en la atención médica de primer contacto?
De acuerdo con OpenAI, la función no pretende sustituir la labor de los médicos, aunque sí está diseñada para optimizar el tiempo en consultas básicas. La empresa señaló que el desarrollo de esta herramienta contó con la colaboración de 260 médicos de 60 países, por lo que la asesoría que ofrece se basa en medicina sustentada en evidencia científica y actualizada de forma constante.
La presencia de la inteligencia artificial en el ámbito médico y en la salud pública avanza a un ritmo sin precedentes. Sin embargo, aunque legalmente se define como un sistema para “navegar sobre información”, especialistas advierten que puede existir un riesgo conductual, como la automedicación, el retraso en la búsqueda de atención médica o una falsa sensación de seguridad, especialmente si el usuario interpreta incorrectamente los datos o desconoce el contexto clínico de sus estudios.
Leer más: Demandan a OpenAI y Microsoft por asesinato: acusan a ChatGPT de alimentar delirios mortales
Por ahora, ChatGPT Health no está disponible en México, aunque se prevé que su lanzamiento ocurra en las próximas semanas. En este escenario, es importante considerar que las personas no siempre logran mantener la objetividad cuando se trata de su propia salud o la de sus familiares.
Si bien esta tecnología podría convertirse, a futuro, en una herramienta útil para que el gobierno mexicano identifique con mayor rapidez casos urgentes en comunidades remotas o de difícil acceso, hoy en día continúa siendo un recurso con beneficios y riesgos.
La aplicación puede ofrecer orientación general, pero es fundamental comprender que la inteligencia artificial no razona con base en el contexto clínico, humano o situacional de cada paciente. Su análisis se limita a interpretar datos y valores numéricos, sin una comprensión real de lo que sucede frente a la persona que consulta.
Usar la plataforma como un sistema de organización de métricas de salud puede resultar útil; sin embargo, ante cualquier malestar, la valoración de un profesional de la salud sigue siendo indispensable para determinar si se trata de una condición leve o de una situación que pone en riesgo la vida.
Dr. Maximiliano Téllez-Girón
@DrTellezGiron


