¡Ojo con las consultas al “Dr. ChatGPT” que erra más de lo que acierta!

Edición Impresa

Una investigación realizada por especialistas de la Escuela de Medicina Icahn del Mount Sinai puso bajo la lupa a ChatGPT Health, el sistema lanzado por OpenAI en enero de 2026 con la promesa de mejorar el triaje y la orientación médica digital.

El estudio analizó 960 escenarios clínicos simulados, construidos a partir de 60 viñetas elaboradas por médicos de distintas especialidades y correspondientes a 21 áreas clínicas. Los resultados mostraron que la herramienta presentó una tasa de error del 52% en situaciones consideradas emergencias médicas. En casos no urgentes, el margen de fallo fue del 35%.

Según los investigadores, esto implica que casi la mitad de las urgencias médicas no fueron correctamente identificadas ni derivadas a servicios de emergencia.

El informe indica que el sistema mostró mejor desempeño en emergencias ampliamente reconocidas, como accidentes cerebrovasculares o reacciones alérgicas graves. Sin embargo, tuvo mayores dificultades en cuadros menos frecuentes pero igualmente críticos, como la cetoacidosis diabética o la insuficiencia respiratoria inminente, donde la tasa de error volvió a ubicarse en torno al 52%.

El análisis también detectó que cuando los usuarios minimizaban sus síntomas o los describían de manera incompleta, aumentaba la probabilidad de que la inteligencia artificial recomendara cuidados de menor urgencia.

Un punto crítico: la salud mental

Uno de los hallazgos más sensibles fue la falta de derivación sistemática a la línea de crisis 988 en casos de ideación suicida. Los autores del estudio subrayaron que reconocer emergencias de salud mental y conectar a los usuarios con recursos especializados es un requisito básico para cualquier plataforma sanitaria destinada al público general.

El sistema fue incluso menos proclive a sugerir la línea de atención cuando los pacientes describían un plan concreto de autolesión, precisamente en situaciones donde la intervención inmediata resulta crucial.

Isaac S. Kohane, director del Departamento de Informática Biomédica de la Facultad de Medicina de Harvard y ajeno al estudio, sostuvo que las evaluaciones independientes deberían ser una práctica habitual. “Cuando millones de personas utilizan un sistema de IA para decidir si necesitan atención de emergencia, hay mucho en juego. La evaluación independiente debería ser rutinaria, no opcional”, afirmó.

Crece el uso, crece el debate

Antes del lanzamiento de ChatGPT Health, OpenAI había informado que el 25% de los 800 millones de usuarios semanales de ChatGPT realizaba al menos una consulta médica, lo que representa unos 40 millones de personas utilizando la plataforma con fines sanitarios.

Ashwin Ramaswamy, profesor de Urología en Mount Sinai y autor del estudio, explicó que el objetivo fue responder una pregunta central: “Si alguien sufre una emergencia médica real y acude a ChatGPT Health en busca de ayuda, ¿le indicará claramente que debe acudir a urgencias?”.

Si bien los investigadores no proponen prohibir estas herramientas, recomiendan que los profesionales de la salud orienten a los pacientes sobre su uso y adviertan sobre sus limitaciones.

¿A quién consultan los pacientes?

Según el informe, el 73% de las personas continúa recurriendo en primera instancia a médicos para obtener información sobre salud, mientras que el 16% utiliza herramientas de inteligencia artificial.

Para Alvira Tyagi, estudiante de medicina y coautora del trabajo, la rápida evolución de estos sistemas obliga a incorporar una mirada crítica en la formación sanitaria. “Parte de nuestra capacitación ahora debe considerar aprender a comprender sus resultados, identificar dónde fallan y utilizarlos de manera que protejan a los pacientes”, señaló.

Mientras la inteligencia artificial avanza en el ámbito sanitario, los especialistas coinciden en que su desarrollo todavía es incipiente y que el desafío será establecer pautas claras que prioricen la seguridad de los pacientes por encima de la innovación tecnológica.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE