La consulta médica a la inteligencia artificial
La era de los chatbots médicos: entre la innovación y el riesgo clínico
Muchas personas buscan en internet información sobre sus síntomas y enfermedades y a veces obtienen autodiagnósticos temerarios. La búsqueda está cambiando en algunos aspectos.
La inteligencia artificial (IA) y los Grandes Modelos de Lenguaje (LLM) ofrecen respuestas inmediatas y con un tono de aparente autoridad experta.
Conscientes de este mercado, gigantes tecnológicos como OpenAI lanzaron herramientas como ChatGPT Health, orientadas a consultas de salud y a la protección de datos médicos.
Aunque las empresas advierten que estas plataformas no reemplazan el diagnóstico profesional, la evidencia científica demuestra que la tecnología aún presenta fallas críticas.
Un reciente estudio elaborado por investigadores del Hospital Mount Sinai de Nueva York puso a prueba la capacidad de triaje de estos chatbots médicos y los resultados encendieron alarmas.
Al evaluar 60 casos clínicos estandarizados, la IA incurrió en un «bajo triaje» en el 51,6% de las situaciones. Esto significa que, ante verdaderas emergencias, el sistema recomendó al paciente esperar entre 24 y 48 horas.
Si bien en los casos límite la inteligencia artificial optó por recomendaciones seguras el 96% de las veces, los investigadores detectaron un sesgo de «tranquilidad»:
También hay que considerar que los pacientes suelen omitir síntomas vitales o aportar información confusa, lo que multiplica exponencialmente el margen de error del algoritmo.

El impacto en el mundo real
Diariamente, unos 40 millones de usuarios consultan a estos chatbots sobre cuestiones sanitarias, lo que representa el 5% del tráfico global de la plataforma. El 55% de las personas busca explorar síntomas, el 48% intenta comprender terminología médica y el 44% investiga opciones de tratamiento.
Los usuarios interactúan con la plataforma revisando cada detalle, buscando no solo un diagnóstico, sino una especie de «terapeuta médico» que los acompañe.
Herramientas probabilísticas, no infalibles
Existe una confusión generalizada sobre qué es exactamente la inteligencia artificial. Arvind Narayanan, profesor de la Universidad de Princeton, advierte que solemos usar el término «IA» como un concepto paraguas, equiparando herramientas radicalmente distintas. No es lo mismo un modelo generalista predictivo de texto como ChatGPT —que funciona agrupando palabras por probabilidad estadística— que un software médico entrenado exclusivamente para detectar nódulos microscópicos en tomografías.
Los modelos generalistas fallan en salud por tres razones fundamentales: no poseen sentido común, dependen excesivamente de cómo el usuario formula la pregunta (el prompt) y son vulnerables a la calidad de los datos con los que fueron entrenados.
Si el algoritmo procesa información fuera de contexto, su respuesta médica será deficiente.
La convivencia inevitable
Prohibir el uso de chatbots es una batalla perdida. Los pacientes continuarán buscando segundas opiniones en internet. Ante esta realidad, la comunidad médica coincide en que la clave es el acompañamiento.
La autonomía total del paciente frente a un algoritmo representa un riesgo clínico grave.
La recomendación de los expertos es clara: las aplicaciones de salud son excelentes herramientas para el seguimiento y control de enfermedades crónicas, siempre y cuando hayan sido recomendadas y supervisadas por un profesional.
La tecnología llegó para potenciar la medicina, pero delegar el criterio clínico a una máquina que adivina la siguiente palabra de una oración sigue siendo, al día de hoy, un juego peligroso.
Ante cualquier inquietud sobre la salud, el mejor camino es consultar al médico