Desde hace ya bastante tiempo, ante cualquier duda hemos recurrido a Google, ya sea para saber la hora de un partido de fútbol, el tiempo que va a hacer el fin de semana, el horario de una tienda de bricolaje o la fecha de lanzamiento del disco de nuestro grupo favorito. Ahora lo que se lleva es preguntárselo directamente a un chatbot como ChatGPT, Gemini, etcétera. El problema es cuando se le hacen consultas sobre salud y se toma como una respuesta médica (sin acudir a un especialista) lo que dice la Inteligencia artificial (IA), porque puede generar diagnósticos erróneos, retrasos en la atención médica y la toma de decisiones inadecuadas sobre tratamientos, según el catedrático de Salud Pública y director de IASalud en la Universidad Europea, Juan José Beunza.

No es un diagnóstico clínico

“El principal riesgo es confundir una orientación general con un diagnóstico clínico real. Un diagnóstico médico no se basa sólo en síntomas aislados sino en antecedentes, medicación, exploración física, evolución temporal y pruebas complementarias. La IA puede cometer errores de interpretación, sobredimensionar causas raras o pasar por alto señales de gravedad”, detalla Beunza.

El 66% de los españoles recurren a la inteligencia artificial para consultar síntomas o problemas de salud, y el 24,8% admite “autodiagnosticarse digitalmente antes de acudir a un médico”, según revela una encuesta realizada por Línea Directa. En las personas de entre 16 a 19 años, este porcentaje puede subir hasta el 90%. Esto demuestra que estas nuevas herramientas se han convertido en un recurso tentador para quienes buscan respuestas rápidas, pero la falta de contexto clínico, acceso al historial completo y la incapacidad de las IA generalistas para evaluar factores complejos suelen conducir a diagnósticos equivocados y retrasos peligrosos a la hora de recibir la atención médica adecuada.

Falsa tranquilidad y alarma excesiva

De hecho, como explica el profesor, el resultado puede ser doblemente dañino. Por un lado, la respuesta generada puede dar a esa persona una “falsa tranquilidad” cuando realmente hay un problema serio, o, al contrario, puede generar una alarma excesiva cuando se trata de temas banales. “La sobreinformación amplifica el sesgo de amenaza, ya que uno empieza buscando una explicación simple y termina leyendo escenarios extremos. Eso eleva la ansiedad, aumenta la hipervigilancia corporal y hace que sensaciones normales se interpreten como signos de enfermedad”, asegura Beunza.

Por ello, la inteligencia artificial puede ser útil para orientar y ordenar datos, pero no debe sustituir la evaluación médica cuando hay síntomas de alarma, empeoramiento progresivo o falta de mejoría. “Por la misma razón por la que no confiamos nuestra salud a un estudiante de tercer curso de medicina ni volamos en un avión pilotado por un novato sin supervisión, no deberíamos confiar nuestra salud a una herramienta que alucina regularmente”, compara.

De cara al futuro, la medicina será más tecnológica, pero también más humana. La inteligencia artificial aporta escala y rapidez, automatiza procesos y asocia datos, mientras que el profesional aporta juicio clínico, contexto y responsabilidad sobre la decisión final, según afirma el catedrático.