Microsoft fait un grand pas en avant dans le domaine de l’IA dans le domaine de la santé avec son assistant Copilot. Le géant de la technologie s’est associé à la Harvard Medical School pour fournir aux utilisateurs des informations de santé fiables, selon un rapport du Wall Street Journal.
Une mise à jour pour Copilot, qui devrait être lancée dès ce mois-ci, s’appuiera sur le contenu de Harvard Health Publishing pour répondre aux questions médicales.
Cette décision fait partie d’un objectif plus large de l’entreprise consistant à créer ses propres modèles d’IA et à moins s’appuyer sur son partenaire, OpenAI. En ciblant le secteur critique de la santé, Microsoft espère construire la marque Copilot et tracer sa propre voie dans la course compétitive de l’IA. La stratégie semble être une tentative directe de se tailler une niche où la crédibilité est primordiale.
Une dose de crédibilité de Harvard
La collaboration avec Harvard, pour lequel Microsoft paiera des frais de licence, est une tentative directe de résoudre l’un des plus grands défis de l’IA grand public : la fiabilité.
En intégrant le contenu de la prestigieuse branche Harvard Health Publishing dans une mise à jour majeure de Copilot prévue pour ce mois-ci, la société vise à établir une base de confiance avec les utilisateurs sur des sujets médicaux sensibles. L’objectif stratégique est de fournir des réponses plus alignées sur les informations fournies par un médecin que celles d’un chatbot standard.
Le vice-président de la santé de Microsoft AI, Dominic King, l’a confirmé, déclarant que l’objectif de l’entreprise est de fournir aux utilisateurs « s’assurer que les gens ont accès à des informations de santé crédibles et dignes de confiance, adaptées à leur langue, à leur niveau d’alphabétisation et à toutes sortes de choses. » King a noté que l’intention est d’aider les utilisateurs à prendre des décisions éclairées concernant la gestion de maladies complexes telles que le diabète.
Cette concentration particulière sur l’exactitude est une réponse claire aux lacunes bien documentées de l’IA à usage général dans des contextes médicaux. Une étude de l’Université Stanford de 2024, par exemple, a révélé que sur 382 questions médicales posées à ChatGPT, le chatbot a fourni une réponse « inappropriée » dans environ 20 % des cas.
Ce déficit de crédibilité ne se limite pas aux chatbots ; une méta-analyse complète de l’Université d’Osaka a révélé que même si l’IA générative se rapproche des compétences de diagnostic des médecins non spécialisés, elle est toujours à la traîne par rapport aux experts humains.
En octroyant des licences à des contenus fiables, Microsoft tente de créer une alternative plus sûre et plus fiable. Cela fait partie d’un effort plus large visant à faire de Copilot un outil de santé pratique, qui comprend également une fonctionnalité en cours de développement pour aider les utilisateurs à trouver des prestataires de soins de santé à proximité en fonction de leurs besoins et de leur couverture d’assurance.
Cependant, l’initiative n’est pas sans complexités importantes, en particulier autour de sujets sensibles. La littérature de Harvard Health Publishing comprend des informations sur la santé mentale, mais lorsqu’elle a été interrogée, Microsoft a refusé de préciser comment le Copilot mis à jour traiterait de telles requêtes.
Il s’agit d’une question cruciale, car l’interaction entre les chatbots et les individus confrontés à des crises de santé mentale a suscité un examen minutieux de la part des législateurs et des experts de la santé, en particulier à la suite de rapports selon lesquels l’IA aurait joué un rôle dans des situations qui se sont soldées par une tragédie.
L’effort stratégique pour l’indépendance de l’IA
La nouvelle initiative en matière de soins de santé est un élément clé d’une mission plus vaste et plus urgente au sein de Microsoft : atteindre l’indépendance technologique par rapport à OpenAI. L’entreprise forme activement ses propres modèles d’IA dans le but à long terme de remplacer les charges de travail actuellement gérées par OpenAI, selon des personnes proches du dossier.
Cet effort est piloté par Mustafa Suleyman, PDG de la division IA grand public de Microsoft. Son équipe se concentre sur l’avancement des modèles développés par Microsoft.
En août, la société a commencé à tester publiquement l’un de ces modèles pour Copilot. Ce modèle de diversification est déjà visible, Microsoft utilisant des modèles du rival d’OpenAI, Anthropic, pour certains de ses 365 produits.
La poussée en faveur de l’autonomie se poursuit malgré un accord de principe en septembre visant à prolonger le partenariat avec OpenAI.
Microsoft a déclaré publiquement que « OpenAI « continuera à être notre partenaire sur les modèles frontières » et que sa philosophie est d’utiliser les meilleurs modèles disponibles », mais ses actions internes signalent un désir clair de contrôler son propre destin en matière d’IA. Le PDG Satya Nadella a récemment délégué d’autres tâches pour se concentrer sur les paris clés sur l’IA.
Naviguer dans une course à l’IA médicale à enjeux élevés
L’accent mis par Microsoft sur les soins de santé le place dans une arène extrêmement compétitive et souvent médiatisée. L’entreprise n’est pas nouvelle dans ses déclarations audacieuses dans ce domaine.
En juin, elle a dévoilé son système MAI-DxO, une IA conçue pour traiter des cas médicaux complexes. Selon Microsoft, le système a été évalué par rapport à une nouvelle norme rigoureuse à l’aide d’études de cas difficiles du New England Journal of Medicine.
Les résultats ont été frappants : MAI-DxO a résolu correctement 85,5 % des cas, tandis qu’un panel de 21 médecins en exercice a atteint une précision moyenne de seulement 20 %.
Cela a incité Mustafa Suleyman, PDG de Microsoft AI, à affirmer :”Microsoft a pris « un véritable pas vers la superintelligence médicale ». La société a affirmé que son outil pouvait diagnostiquer des maladies avec une précision quatre fois supérieure à celle des médecins.
Cependant, le domaine plus large de l’IA médicale est rempli à la fois de promesses et d’obstacles importants, ce qui suggère que de telles affirmations justifient la prudence. Une méta-analyse de mars 2025 de l’Université d’Osaka, publiée dans Nature, offrait une perspective plus mesurée.
Après avoir examiné 83 études différentes, elle a révélé que même si l’IA générative s’améliore, ses performances sont encore loin d’être parfaites. Comme l’a noté le chercheur principal, le Dr Hirotaka Takita, « les capacités de diagnostic de l’IA générative sont comparables à celles des médecins non spécialisés », ajoutant qu’elle est toujours à la traîne par rapport aux spécialistes humains, avec une marge de 15,8 %.
L’étude a également déclenché un signal d’alarme quant à l’état de la recherche dans le domaine, révélant que 76 % des articles analysés présentaient un risque élevé de biais, souvent dû à une formation opaque. données.
Cet écart entre les performances de référence et la pratique clinique réelle est un thème récurrent. Le domaine de la radiologie constitue une étude de cas puissante. En 2016,
Le pionnier de l’IA Geoffrey Hinton a déclaré que « les gens devraient arrêter de former des radiologues maintenant ». Pourtant, près d’une décennie plus tard, la demande de radiologues humains est en plein essor, avec des postes de résidence record et des salaires en hausse.
Ce paradoxe révèle l’immense complexité de la réglementation, de la responsabilité et de l’intégration des flux de travail que les algorithmes ne peuvent à eux seuls résoudre. Les assureurs inscrivent de plus en plus de clauses d’exclusion absolue de l’IA dans leurs polices d’assurance contre les fautes professionnelles, obligeant les hôpitaux à confier à un médecin agréé légalement responsable de tout diagnostic et garantissant que l’humain reste fermement informé.
La course à l’IA médicale se mène également sur plusieurs fronts au-delà du diagnostic. Des chercheurs européens, par exemple, ont développé Delphi-2M, une IA capable de prévoir le risque de plus de 1 000 maladies des décennies à l’avance en analysant les dossiers de santé.
Entre-temps, à l’Université Johns Hopkins, le système SRT-H a démontré le potentiel de l’IA dans l’intervention directe, en effectuant de manière autonome des étapes chirurgicales complexes sur un robot Da Vinci standard lors de tests en laboratoire.
Ces approches variées soulignent le une vaste ambition dans l’ensemble du secteur, où le défi ne consiste pas seulement à créer un algorithme précis, mais également un algorithme suffisamment sûr, fiable et pratique pour une adoption clinique.
Les défis non résolus de la confiance et de l’exactitude
Au-delà des critères de performance, le plus grand obstacle à l’IA en médecine est la confiance. L’utilisation de vastes ensembles de données sur les patients pour former des modèles soulève de profondes questions en matière de confidentialité. Une récente controverse sur l’IA « Foresight » du Royaume-Uni, formée sur 57 millions d’enregistrements du NHS, a mis en évidence l’inquiétude du public concernant la sécurité des données.
Le Copilot de Microsoft est également confronté à une forte augmentation de son adoption par les utilisateurs. L’application a été téléchargée 95 millions de fois, soit une fraction des plus d’un milliard de téléchargements de ChatGPT, selon les données de Sensor Tower. Bâtir une réputation d’exactitude dans un domaine sensible comme la santé pourrait être un différenciateur clé.
En fin de compte, le succès de Microsoft ne dépendra pas seulement de sa technologie, mais aussi de sa capacité à convaincre les utilisateurs que son IA est une source fiable pour leurs questions les plus importantes. Le partenariat avec Harvard constitue une étape claire et stratégique vers l’établissement de cette confiance essentielle.