Microsoft macht mit seinem Copilot-Assistenten einen großen Vorstoß in die KI im Gesundheitswesen. Laut einem Bericht des Wall Street Journal

hat der Technologieriese eine Partnerschaft mit der Harvard Medical School geschlossen, um Benutzern vertrauenswürdige Gesundheitsinformationen bereitzustellen.

Ein Update für Copilot, das bald erscheinen soll wird diesen Monat auf Inhalte von Harvard Health Publishing zurückgreifen, um medizinische Fragen zu beantworten.

Dieser Schritt ist Teil eines umfassenderen Unternehmensziels, eigene KI-Modelle zu entwickeln und sich weniger auf seinen Partner OpenAI zu verlassen. Durch die Ausrichtung auf den kritischen Gesundheitssektor hofft Microsoft, die Marke Copilot aufzubauen und seinen eigenen Weg im wettbewerbsintensiven KI-Wettbewerb zu beschreiten. Die Strategie scheint ein direkter Versuch zu sein, eine Nische zu erobern, in der Glaubwürdigkeit an erster Stelle steht.

Eine Dosis Glaubwürdigkeit von Harvard

The Die Zusammenarbeit mit Harvard, für die Microsoft eine Lizenzgebühr zahlen wird, ist ein direkter Versuch, eine der größten Herausforderungen für Verbraucher-KI zu lösen: Zuverlässigkeit.

Durch die Integration von Inhalten des angesehenen Harvard Health Publishing-Zweigs in ein großes Copilot-Update, das für diesen Monat geplant ist, möchte das Unternehmen eine Vertrauensbasis bei Benutzern zu sensiblen medizinischen Themen aufbauen. Das strategische Ziel besteht darin, Antworten bereitzustellen, die besser auf die Informationen eines Arztes abgestimmt sind als auf einem Standard-Chatbot.

Dominic King, Vice President of Health bei Microsoft AI, bestätigte dies und erklärte, das Ziel des Unternehmens bestehe darin, den Nutzern „sicherzustellen, dass Menschen Zugang zu glaubwürdigen, vertrauenswürdigen Gesundheitsinformationen haben, die auf ihre Sprache, ihre Lese-und Schreibkenntnisse und alles Mögliche zugeschnitten sind“. King wies darauf hin, dass die Absicht darin besteht, Benutzern dabei zu helfen, fundierte Entscheidungen über den Umgang mit komplexen Erkrankungen wie Diabetes zu treffen.

Dieser starke Fokus auf Genauigkeit ist eine klare Reaktion auf die gut dokumentierten Mängel der Allzweck-KI im medizinischen Kontext. Eine Studie der Stanford University aus dem Jahr 2024 ergab beispielsweise, dass der Chatbot von 382 medizinischen Fragen, die an ChatGPT gestellt wurden, in etwa 20 % der Fälle eine „unangemessene“ Antwort lieferte.

Diese Glaubwürdigkeitslücke ist nicht auf Chatbots beschränkt; Eine umfassende Metaanalyse der Universität Osaka ergab, dass generative KI zwar an die diagnostischen Fähigkeiten nicht spezialisierter Ärzte herankommt, aber immer noch deutlich hinter menschlichen Experten zurückbleibt.

Durch die Lizenzierung vertrauenswürdiger Inhalte versucht Microsoft, eine sicherere und zuverlässigere Alternative zu entwickeln. Dies ist Teil einer umfassenderen Bemühung, Copilot zu einem praktischen Gesundheitstool zu machen, zu dem auch eine in der Entwicklung befindliche Funktion gehört, die Benutzern dabei hilft, Gesundheitsdienstleister in der Nähe entsprechend ihren Bedürfnissen und ihrem Versicherungsschutz zu finden.

Allerdings ist die Initiative nicht ohne erhebliche Komplexitäten, insbesondere bei sensiblen Themen. Die Literatur von Harvard Health Publishing enthält Material zur psychischen Gesundheit, aber auf Nachfrage lehnte Microsoft es ab, anzugeben, wie der aktualisierte Copilot mit solchen Anfragen umgehen würde.

Dies ist ein kritisches Thema, da die Interaktion zwischen Chatbots und Personen, die psychische Krisen erleben, von Gesetzgebern und Gesundheitsexperten einer intensiven Prüfung unterzogen wurde, insbesondere nach Berichten, dass KI in Situationen eine Rolle gespielt hat, die in einer Tragödie endeten.

Der strategische Vorstoß zur KI-Unabhängigkeit

Die neue Gesundheitsinitiative ist ein wichtiger Teil einer größeren, dringlicheren Mission innerhalb von Microsoft: die technologische Unabhängigkeit von OpenAI zu erreichen. Laut mit der Angelegenheit vertrauten Personen trainiert das Unternehmen aktiv seine eigenen KI-Modelle mit dem langfristigen Ziel, die derzeit von OpenAI verarbeiteten Arbeitslasten zu ersetzen.

Diese Bemühungen werden von Mustafa Suleyman, CEO der Consumer-KI-Abteilung von Microsoft, vorangetrieben. Sein Team konzentriert sich auf die Weiterentwicklung der selbst entwickelten Modelle von Microsoft.

Im August begann das Unternehmen damit, ein solches Modell für Copilot öffentlich zu testen. Dieses Diversifizierungsmuster ist bereits sichtbar, da Microsoft für einige seiner 365-Produkte Modelle des OpenAI-Konkurrenten Anthropic verwendet.

Der Drang zur Eigenständigkeit geht trotz einer vorläufigen Vereinbarung im September zur Verlängerung der Partnerschaft mit OpenAI weiter.

Microsoft hat öffentlich erklärt, dass „OpenAI weiterhin unser Partner bei Grenzmodellen sein wird“ und dass seine Philosophie darin besteht, die besten verfügbaren Modelle zu verwenden, aber seine internen Maßnahmen signalisieren den klaren Wunsch, sein eigenes KI-Schicksal zu kontrollieren. CEO Satya Nadella hat kürzlich andere Aufgaben delegiert, um sich auf wichtige KI-Wetten zu konzentrieren.

Navigation in einem hochriskanten medizinischen KI-Wettbewerb

Microsofts Fokus auf das Gesundheitswesen bringt das Unternehmen in einen hart umkämpften und oft gehypten Bereich. Das Unternehmen ist nicht neu darin, in diesem Bereich mutige Behauptungen aufzustellen.

Im Juni stellte es sein MAI-DxO-System vor, eine KI, die für die Bewältigung komplexer medizinischer Fälle entwickelt wurde. Laut Microsoft wurde das System anhand anspruchsvoller Fallstudien des New England Journal of Medicine anhand eines strengen neuen Standards bewertet.

Die Ergebnisse waren beeindruckend: MAI-DxO löste 85,5 % der Fälle korrekt, während eine Gruppe von 21 praktizierenden Ärzten eine durchschnittliche Genauigkeit von nur 20 % erreichte.

Dies veranlasste Mustafa Suleyman, CEO von Microsoft AI, zu der Behauptung: „Microsoft hat ‚a echter Schritt in Richtung medizinischer Superintelligenz.‘“ Das Unternehmen behauptete, dass sein Tool Krankheiten mit der vierfachen Genauigkeit von Ärzten diagnostizieren könne.

Das breitere Feld der medizinischen KI ist jedoch sowohl mit Versprechen als auch mit erheblichen Hürden gefüllt, was darauf hindeutet, dass solche Behauptungen Vorsicht gebieten sollten. Eine im März 2025 in Nature veröffentlichte Metaanalyse der Universität Osaka bot eine maßvollere Perspektive.

Nach der Durchsicht von 83 verschiedenen Studien kam sie zu dem Ergebnis, dass sich die generative KI zwar verbessert, ihre Leistung aber noch lange nicht perfekt ist. Der leitende Forscher Dr. Hirotaka Takita stellte fest, „dass die diagnostischen Fähigkeiten der generativen KI mit denen von nicht spezialisierten Ärzten vergleichbar sind“, und fügte hinzu, dass sie mit einem Vorsprung von 15,8 % immer noch deutlich hinter menschlichen Spezialisten zurückbleibt.

Die Studie warf auch ein Warnsignal hinsichtlich des Stands der Forschung auf diesem Gebiet und stellte fest, dass bei 76 % der analysierten Arbeiten ein hohes Risiko für Verzerrungen bestand, häufig aufgrund undurchsichtiger Ausbildung Daten.

Diese Kluft zwischen Benchmark-Leistung und realer klinischer Praxis ist ein wiederkehrendes Thema. Der Bereich der Radiologie dient als aussagekräftige Fallstudie. Im Jahr 2016

KI-Pionier Geoffrey Hinton erklärte bekanntlich: „Die Menschen sollten jetzt aufhören, Radiologen auszubilden.“ Doch fast ein Jahrzehnt später boomt die Nachfrage nach Humanradiologen, mit Rekordstellen bei Assistenzärzten und steigenden Gehältern.

Dieses Paradoxon offenbart die immense Komplexität von Regulierung, Haftung und Workflow-Integration, die Algorithmen allein nicht lösen können. Versicherer schreiben zunehmend Klauseln zum „absoluten KI-Ausschluss“ in die Policen für Kunstfehler ein, die Krankenhäuser dazu zwingen, einen zugelassenen Arzt rechtlich für jede Diagnose verantwortlich zu machen und sicherzustellen, dass der Mensch auf dem Laufenden bleibt.

Der Wettlauf um medizinische KI wird auch an mehreren Fronten über die Diagnostik hinaus ausgetragen. Europäische Forscher haben beispielsweise Delphi-2M entwickelt, eine KI, die durch die Analyse von Gesundheitsakten das Risiko für über 1.000 Krankheiten Jahrzehnte im Voraus vorhersagen kann.

Unterdessen hat das SRT-H-System an der Johns Hopkins University das Potenzial von KI für direkte Eingriffe demonstriert, indem es in Labortests autonom komplexe chirurgische Schritte an einem Standard-Da-Vinci-Roboter durchführt.

Diese unterschiedlichen Ansätze unterstreichen den enormen Ehrgeiz in der gesamten Branche, wo die Herausforderung nicht nur darin besteht, einen genauen Algorithmus zu entwickeln, sondern einen, der sicher, zuverlässig und praktisch genug für die klinische Anwendung ist.

Die ungelösten Herausforderungen von Vertrauen und Genauigkeit

Über Leistungsbenchmarks hinaus ist Vertrauen das größte Hindernis für KI in der Medizin. Die Verwendung umfangreicher Patientendatensätze zum Trainieren von Modellen wirft tiefgreifende Fragen zum Datenschutz auf. Eine kürzliche Kontroverse über die „Foresight“-KI des Vereinigten Königreichs, die auf 57 Millionen NHS-Datensätzen trainiert wurde, verdeutlichte die Besorgnis der Öffentlichkeit über die Datensicherheit.

Microsofts Copilot steht ebenfalls vor einem steilen Anstieg der Benutzerakzeptanz. Laut Daten von Sensor Tower wurde die App 95 Millionen Mal heruntergeladen, ein Bruchteil der mehr als eine Milliarde Downloads von ChatGPT. Der Aufbau eines Rufs für Genauigkeit in einem sensiblen Bereich wie dem Gesundheitswesen könnte ein entscheidendes Unterscheidungsmerkmal sein.

Letztendlich wird der Erfolg von Microsoft nicht nur von seiner Technologie abhängen, sondern auch von seiner Fähigkeit, Benutzer davon zu überzeugen, dass seine KI eine zuverlässige Quelle für ihre wichtigsten Fragen ist. Die Harvard-Partnerschaft ist ein klarer und strategischer Schritt zum Aufbau dieses wichtigen Vertrauens.

Categories: IT Info