En 2016, el pionero de la IA Geoffrey Hinton hizo una predicción audaz, declarando que”la gente debería dejar de formar radiólogos ahora”. Fue un momento decisivo que pareció presagiar el fin de una especialidad médica. Sin embargo, casi una década después, la realidad sobre el terreno cuenta una historia diferente, al menos hasta ahora.
La demanda de radiólogos humanos está en auge. En 2025, los programas de residencia ofrecieron un número récord de puestos y los salarios promedio tienen se disparó en casi un 50 % desde 2015.
La misma profesión que se suponía que la IA debía eliminar es más vital que nunca, con tasas de desocupación en máximos históricos.
Esta paradoja revela una lección crucial sobre el impacto de la tecnología en el mundo real. Si bien los modelos de IA de gigantes como Microsoft pueden lograr una precisión sobrehumana en condiciones de laboratorio estériles, tienen dificultades para navegar las complejidades de la práctica clínica real. El camino desde el algoritmo hasta la adopción está plagado de obstáculos prácticos, legales y éticos.
De los puntos de referencia a la cabecera: la verificación de la realidad de la IA
La brecha entre el desempeño de una IA en puntos de referencia controlados y su eficacia en el mundo real es el primer obstáculo importante. Los modelos a menudo son entrenados en imágenes altamente seleccionadas e inequívocas, lo que sesga su desempeño hacia los casos más fáciles.
Con frecuencia fallan cuando se enfrentan a presentaciones sutiles de enfermedades, exploraciones borrosas o variaciones en los equipos de imágenes, un problema conocido como falla fuera de distribución.
Esta fragilidad está bien documentada. La precisión de una IA puede disminuir hasta en 20 puntos porcentuales cuando se prueba con datos de un nuevo hospital.
El proceso de validación en sí suele ser limitado; un análisis de 2024 encontró que el 38 % de los modelos revisados se probaron con datos de un único hospital. institución. Esta falta de contexto del mundo real puede llevar a errores absurdos, como que un modelo identifique erróneamente grapas quirúrgicas como hemorragias cerebrales.
Este no es un problema nuevo. En la década de 1990, los los primeros sistemas de diagnóstico asistido por computadora (CAD) para mamografías fueron ampliamente adoptados después de recibir la aprobación de la FDA en 1998 y el reembolso de Medicare en 2001.
Por En 2010, se utilizaron en casi las tres cuartas partes de todos los exámenes de detección. En la práctica, sin embargo, fracasaron espectacularmente. Un estudio histórico encontró que las clínicas asistidas por CAD realizaron un 20 % más de biopsias sin descubrir más cáncer.
Una razón clave de este fracaso fue el sesgo de automatización: los médicos postergaron demasiado a la máquina. Un ensayo clínico realizado en 2004 reveló que guiados por CAD, los especialistas identificaron apenas la mitad de las neoplasias malignas, mientras que sus pares sin ayuda detectaron el 68%. La experiencia llevó a Medicare a retirar el reembolso adicional por CAD en 2018, una lección histórica que se cierne sobre la IA más avanzada de hoy.
Un metaanálisis reciente de la Universidad Metropolitana de Osaka confirma que esta brecha de desempeño persiste. Después de revisar 83 estudios, los investigadores descubrieron que, si bien la IA generativa está a la par de los no especialistas, está un 15,8 % por detrás de los expertos humanos.
Como señaló un médico involucrado en el estudio:”Esta investigación muestra que las capacidades de diagnóstico de la IA generativa son comparables a las de los médicos no especialistas”. El estudio también advirtió que el 76% de los artículos que analizó tenían un alto riesgo de sesgo, a menudo debido a datos de entrenamiento opacos.
El cortafuegos humano: regulación, responsabilidad y los límites de la autonomía
Incluso si la IA pudiera lograr una precisión perfecta, se enfrentaría a un muro de barreras regulatorias y legales. La FDA mantiene un estándar de aprobación mucho más alto para la IA totalmente autónoma en comparación con las herramientas de asistencia que mantienen al ser humano informado. Esto es para evitar que una sola falla de software dañe a miles de pacientes a la vez.
Cumplir con este estándar es increíblemente difícil. Por ejemplo, IDx-DR, una de las pocas herramientas autónomas aprobadas por la FDA, viene con barreras estrictas: solo puede usarse en adultos con una calidad de imagen específica y sin diagnóstico previo de la enfermedad.
Si alguna condición no es óptima, el software debe cancelar y derivar el caso a un profesional humano.
El seguro contra negligencia es otro obstáculo importante. Las aseguradoras, temerosas de los pagos catastróficos derivados de un algoritmo defectuoso, están incluyendo cada vez más cláusulas de’Exclusión absoluta de IA’en sus pólizas.
Esto obliga a los hospitales a depender de un médico autorizado para que asuma la responsabilidad final del diagnóstico, manteniendo al ser humano firmemente a cargo.
Sin un camino claro a través de estos campos minados legales y financieros, el papel de la IA sigue siendo firmemente asistencial. Como señala un analista de Signify Research, los modelos de confianza y reembolso continúan limitando la adopción autónoma.
Más que solo píxeles: la paradoja de la demanda impulsada por la IA
Un tercer factor crítico es el verdadero alcance del trabajo de un radiólogo. La interpretación de imágenes es sólo una parte de su función. Un estudio de 2012 encontró que los diagnósticos representaban solo el 36 % de su tiempo, y el resto se dedicaba a consultas de pacientes, supervisión de procedimientos y enseñanza.
Automatizar una tarea no elimina la profesión. En cambio, puede desencadenar una paradoja de Jevons, donde hacer que un servicio sea más barato y más rápido aumenta dramáticamente la demanda.
Así como la digitalización en la década de 2000 redujo drásticamente los tiempos de entrega de informes y condujo a un aumento del 60% en el volumen de imágenes, La IA podría hacer que los radiólogos estén más ocupados que nunca.
Esta dinámica ya se está debatiendo dentro de la comunidad médica, y algunos radiólogos considerar la IA como un “arma de doble filo” que podría aliviar o exacerbar el agotamiento dependiendo de su implementación.
El obstáculo fundamental: privacidad de los datos y confianza pública
La base de todos estos desafíos es el dilema ético no resuelto de los datos de los pacientes. Entrenar una IA médica eficaz requiere vastos conjuntos de datos, lo que plantea profundas preocupaciones sobre la privacidad.
La reciente controversia sobre el modelo’Foresight’del NHS del Reino Unido, basado en 57 millones de registros de pacientes, es un ejemplo de ello.
Los expertos y defensores de la privacidad advierten que incluso los datos”no identificados”conllevan un riesgo persistente de reidentificación. Como argumentó un defensor de la privacidad de medConfidential,”es casi seguro que esta IA exclusiva para covid tiene datos de pacientes incorporados, que no pueden salir del laboratorio”.
Este sentimiento es compartido por los investigadores que enfatizan que”la gente generalmente quiere mantener el control sobre sus datos y quiere saber adónde van”.
Generar confianza pública es tan crítico como demostrar eficacia clínica. Como afirmó Vin Diwakar del NHS de Inglaterra,”la IA tiene el potencial de cambiar la forma en que prevenimos y tratamos enfermedades, especialmente cuando se entrena con grandes conjuntos de datos”, pero el camino hacia el uso de esos datos está plagado de responsabilidades éticas.
A pesar de los obstáculos, la tecnología continúa su avance implacable. El director general de Microsoft AI, Mustafa Suleyman, elogió el sistema MAI-DxO de su empresa diciendo que”Microsoft ha dado’un verdadero paso hacia la superinteligencia médica”.
Mientras tanto, investigadores europeos han desarrollado Delphi-2M, una IA que puede pronosticar el riesgo de más de 1.000 enfermedades con décadas de antelación.
La pregunta no es si se utilizará la IA, sino cómo. Como lo expresó acertadamente la profesora Savannah Partridge de la Universidad de Washington:”La cuestión no es si se usa [IA] o no, sino ¿cómo se usa? ¿Cómo se usa de manera adecuada y segura?”
El caso de la radiología muestra que, para profesiones complejas y de alto riesgo, el papel de la IA está evolucionando hacia el de un asistente poderoso e indispensable, no un reemplazo.