Microsoft está dando un gran impulso a la IA sanitaria con su asistente Copilot. El gigante tecnológico se ha asociado con la Facultad de Medicina de Harvard para proporcionar a los usuarios información de salud confiable, según un informe de The Wall Street Journal.
Una actualización para Copilot, que se lanzará pronto como este mes, se basará en contenido de Harvard Health Publishing para responder consultas médicas.
Esta medida es parte de un objetivo más amplio de la empresa de construir sus propios modelos de IA y depender menos de su socio, OpenAI. Al apuntar al crítico sector de la salud, Microsoft espera construir la marca Copilot y forjar su propio camino en la competitiva carrera de la IA. La estrategia parece ser un intento directo de crear un nicho donde la credibilidad es primordial.
Una dosis de credibilidad de Harvard
La colaboración con Harvard, por la cual Microsoft pagará una tarifa de licencia, es un intento directo de resolver uno de los mayores desafíos para la IA del consumidor: la confiabilidad.
Al integrar contenido de la estimada rama Harvard Health Publishing en una importante actualización de Copilot programada para este mes, la compañía pretende construir una base de confianza con los usuarios sobre temas médicos delicados. El objetivo estratégico es proporcionar respuestas más alineadas con la información de un médico que con un chatbot estándar.
El vicepresidente de salud de Microsoft AI, Dominic King, confirmó esto y afirmó que el objetivo de la compañía es brindar a los usuarios”asegurarse de que las personas tengan acceso a información de salud creíble y confiable que se adapte a su idioma y su alfabetización y todo tipo de cosas es esencial”. King señaló que la intención es ayudar a los usuarios a tomar decisiones informadas sobre el manejo de afecciones complejas como la diabetes.
Este fuerte enfoque en la precisión es una respuesta clara a las deficiencias bien documentadas de la IA de uso general en contextos médicos. Un estudio de la Universidad de Stanford de 2024, por ejemplo, encontró que de 382 preguntas médicas planteadas a ChatGPT, el chatbot proporcionó una respuesta”inapropiada”en aproximadamente el 20% de los casos.
Esta brecha de credibilidad no se limita a los chatbots; un metaanálisis integral de la Universidad de Osaka encontró que, si bien la IA generativa se está acercando a la habilidad de diagnóstico de los médicos no especialistas, todavía está muy por detrás de los expertos humanos.
Al otorgar licencias de contenido confiable, Microsoft está tratando de construir una alternativa más segura y confiable. Esto es parte de un esfuerzo más amplio para hacer de Copilot una herramienta de salud práctica, que también incluye una función en desarrollo para ayudar a los usuarios a encontrar proveedores de atención médica cercanos según sus necesidades y cobertura de seguro.
Sin embargo, la iniciativa no está exenta de complejidades significativas, particularmente en torno a temas delicados. La literatura de Harvard Health Publishing incluye material sobre salud mental, pero cuando se le preguntó, Microsoft se negó a especificar cómo el Copilot actualizado manejaría tales consultas.
Este es un tema crítico, ya que la interacción entre los chatbots y las personas que experimentan crisis de salud mental ha generado un intenso escrutinio por parte de legisladores y expertos en salud, especialmente después de informes sobre el papel de la IA en situaciones que terminaron en tragedia.
El impulso estratégico para la independencia de la IA
La nueva iniciativa de atención médica es una parte clave de una misión más amplia y urgente dentro de Microsoft: lograr la independencia tecnológica de OpenAI. La empresa está entrenando activamente sus propios modelos de IA con el objetivo a largo plazo de reemplazar las cargas de trabajo que actualmente maneja OpenAI, según personas familiarizadas con el asunto.
Este esfuerzo está siendo impulsado por Mustafa Suleyman, director ejecutivo de la división de IA de consumo de Microsoft. Su equipo se concentra en desarrollar los modelos locales de Microsoft.
En agosto, la compañía comenzó a probar públicamente uno de esos modelos para Copilot. Este patrón de diversificación ya es visible: Microsoft utiliza modelos de Anthropic, rival de OpenAI, para algunos de sus productos 365.
El impulso hacia la autosuficiencia continúa a pesar de un acuerdo tentativo en septiembre para ampliar la asociación con OpenAI.
Microsoft ha declarado públicamente que”OpenAI’seguirá siendo nuestro socio en los modelos de frontera’y que su filosofía es utilizar los mejores modelos disponibles”, pero sus acciones internas indican un claro deseo de controlar su propio destino de IA. El director ejecutivo, Satya Nadella, delegó recientemente otras funciones para centrarse en apuestas clave de la IA.
Navegando por una carrera de IA médica de alto riesgo
El enfoque de Microsoft en la atención médica lo coloca en un campo ferozmente competitivo y a menudo publicitado. La empresa no es nueva en hacer afirmaciones audaces en este ámbito.
En junio, presentó su sistema MAI-DxO, una IA diseñada para abordar casos médicos complejos. Según Microsoft, el sistema fue evaluado según un nuevo estándar riguroso utilizando estudios de casos desafiantes del New England Journal of Medicine.
Los resultados fueron sorprendentes: MAI-DxO resolvió correctamente el 85,5 % de los casos, mientras que un panel de 21 médicos en ejercicio logró una precisión media de solo el 20 %.
Esto llevó al CEO de Microsoft AI, Mustafa Suleyman, a afirmar: “Microsoft ha tomado”un verdadero paso hacia la superinteligencia médica”. La compañía afirmó que su herramienta podría diagnosticar enfermedades con cuatro veces la precisión de los médicos.
Sin embargo, el campo más amplio de la IA médica está lleno de promesas y obstáculos importantes, lo que sugiere que tales afirmaciones merecen cautela. Un metanálisis de marzo de 2025 de la Universidad de Osaka, publicado en Nature, ofreció una perspectiva más mesurada.
Después de revisar 83 estudios diferentes, descubrió que, si bien la IA generativa está mejorando, su rendimiento aún está lejos de ser perfecto. Como señaló el investigador principal, el Dr. Hirotaka Takita,”las capacidades de diagnóstico de la IA generativa son comparables a las de los médicos no especialistas”, y agregó que todavía está muy por detrás de los especialistas humanos por un margen del 15,8 %.
El estudio también generó una señal de alerta sobre el estado de la investigación en este campo, al descubrir que el 76 % de los artículos que analizó tenían un alto riesgo de sesgo, a menudo debido a una formación opaca. datos.
Esta brecha entre el desempeño de referencia y la práctica clínica del mundo real es un tema recurrente. El campo de la radiología sirve como un poderoso caso de estudio. En 2016,
El pionero de la IA, Geoffrey Hinton, declaró que”la gente debería dejar de formar radiólogos ahora”. Sin embargo, casi una década después, la demanda de radiólogos humanos está en auge, con puestos de residencia récord y salarios en alza.
Esta paradoja revela las inmensas complejidades de la regulación, la responsabilidad y la integración del flujo de trabajo que los algoritmos por sí solos no pueden resolver. Las aseguradoras están incorporando cada vez más cláusulas de “exclusión absoluta de la IA” en las pólizas por negligencia, lo que obliga a los hospitales a mantener a un médico autorizado legalmente responsable de cualquier diagnóstico y garantiza que el ser humano permanezca firmemente informado.
La carrera por la IA médica también se libra en múltiples frentes más allá del diagnóstico. Investigadores europeos, por ejemplo, han desarrollado Delphi-2M, una IA que puede pronosticar el riesgo de más de 1.000 enfermedades con décadas de antelación mediante el análisis de registros médicos.
Mientras tanto, en la Universidad Johns Hopkins, el sistema SRT-H ha demostrado el potencial de la IA en la intervención directa, realizando de forma autónoma pasos quirúrgicos complejos en un robot da Vinci estándar en pruebas de laboratorio.
Estos enfoques variados subrayan la gran ambición en todo el sector, donde el desafío no es solo crear un algoritmo preciso, sino uno que sea lo suficientemente seguro, confiable y práctico para su adopción clínica.
Los desafíos no resueltos de la confianza y la precisión
Más allá de los puntos de referencia de desempeño, el mayor obstáculo para la IA en la medicina es la confianza. El uso de grandes conjuntos de datos de pacientes para entrenar modelos plantea profundas cuestiones de privacidad. Una reciente controversia sobre la IA’Foresight’del Reino Unido, basada en 57 millones de registros del NHS, puso de relieve la ansiedad pública sobre la seguridad de los datos.
Copilot de Microsoft también enfrenta un fuerte ascenso en la adopción por parte de los usuarios. La aplicación se ha descargado 95 millones de veces, una fracción de las más de mil millones de descargas de ChatGPT, según datos de Sensor Tower. Construir una reputación de precisión en un campo sensible como el de la atención sanitaria podría ser un diferenciador clave.
En última instancia, el éxito de Microsoft dependerá no sólo de su tecnología, sino de su capacidad para convencer a los usuarios de que su IA es una fuente confiable para sus preguntas más importantes. La asociación con Harvard es un paso claro y estratégico hacia la construcción de esa confianza esencial.