Microsoft gjør et stort dytt inn i Healthcare AI med sin Copilot-assistent. Teknisk gigant har inngått et samarbeid med Harvard Medical School for å gi brukerne pålitelig helseinformasjon, ifølge fra Wall. snart denne måneden, vil trekke på innhold fra Harvard Health Publishing for å svare på medisinske spørsmål.

Dette trekket er en del av et bredere selskapsmål å bygge sine egne AI-modeller og stole mindre på sin partner, Openai. Ved å målrette den kritiske helsevesenet, håper Microsoft å bygge Copilots merkevare og smi sin egen vei i det konkurrerende AI-løpet. Strategien ser ut til å være et direkte forsøk på å skjære ut en nisje der troverdigheten er av største viktig

Samarbeidet med Harvard, som Microsoft vil betale et lisensavgift, er et direkte forsøk på å løse en av de største utfordringene for forbruker AI: pålitelighet.

Ved å integrere innhold fra den anerkjente Harvard Health Publishing Arm til en større kopilotoppdatering planlagt i denne måneden. Det strategiske målet er å gi svar mer i tråd med informasjon fra en lege enn en standard chatbot.

Microsoft AIs visepresident for helse, Dominic King, bekreftet dette, og sier at selskapets mål er å gi brukerne”å sørge for at folk har tilgang til troverdig, pålitelig helse, er å være på grunn av deres språk og deres språk og deres språk og deres språk og deres språk og deres språk og deres språk og deres språket er å”sørge for at folk har tilgang til å si at selskapet er å si at selskapet er å si at selskapets mål er å gi brukere som er å”sørge for at selskapet er å si at selskapets mål er å gi brukere å”sørge for at folk å si at selskapet er å si at selskapet er å si at selskapet er sagt for å gi brukerne”Microsa King bemerket at intensjonen er å hjelpe brukere med å ta informerte beslutninger om å håndtere komplekse tilstander som diabetes.

Dette skarpe fokuset på nøyaktighet er en klar respons på de veldokumenterte manglene ved generell AI i medisinske sammenhenger. En studie fra Stanford University fra 2024, for eksempel, fant ut at av 382 medisinske spørsmål som ble stilt til ChatGPT, ga chatbot et”upassende”svar i omtrent 20% av tilfellene.

Dette troverdighetsgapet er ikke begrenset til chatbots; En omfattende metaanalyse fra Osaka University fant at mens generativ AI nærmer seg den diagnostiske ferdigheten til ikke-spesialistiske leger, henger den fortsatt betydelig bak menneskelige eksperter.

Ved å lisensiere pålitelig innhold prøver Microsoft å bygge et tryggere, mer pålitelig alternativ. Dette er en del av en bredere innsats for å gjøre Copilot til et praktisk helseverktøy, som også inkluderer en funksjon i utviklingen for å hjelpe brukere med å finne helsetjenester i nærheten basert på deres behov og forsikringsdekning.

Imidlertid er initiativet ikke uten vesentlige kompleksiteter, spesielt rundt sensitive emner. Harvard Health Publishing-litteratur inkluderer materiale om mental helse, men når Microsoft ble avhør

Det strategiske presset for AI-uavhengighet

Det nye helsetjenesterinitiativet er en sentral del av et større, mer presserende oppdrag i Microsoft: å oppnå teknologisk uavhengighet fra Openai. Selskapet trener aktivt sine egne AI-modeller med det langsiktige målet om å erstatte arbeidsmengder som for øyeblikket er håndtert av Openai, ifølge personer som er kjent med saken.

Denne innsatsen blir drevet av Mustafa Suleyman, administrerende direktør i Microsofts forbruker AI-divisjon. Teamet hans er fokusert på å fremme Microsofts hjemmelagde modeller.

I august begynte selskapet offentlig å teste en slik modell for Copilot. Dette diversifiseringsmønsteret er allerede synlig, med Microsoft som bruker modeller fra Openais rival Antropic for noen av de 365 produktene.

Push for selvtillit fortsetter til tross for en tentativ avtale i september for å utvide partnerskapet med Openai.

Microsoft har offentlig uttalt at”Openai”vil fortsette å være vår partner på Frontier-modeller”, og at filosofien er å bruke de beste modellene som er tilgjengelige,”men dens interne handlinger signaliserer et klart ønske om å kontrollere sin egen AI-skjebne. Administrerende direktør Satya Nadella delegerte nylig andre plikter for å fokusere på viktige AI-spill.

Navigering av et medisinsk AI-løp med høy innsats

Microsofts fokus på helsetjenester plasserer det i en heftig konkurrerende og ofte hyped arena. Selskapet er ikke nytt for å komme med dristige påstander i dette rommet.

I juni avduket det MAI-DXO-systemet, en AI designet for å takle komplekse medisinske tilfeller. I følge Microsoft ble systemet evaluert mot en streng ny standard ved bruk av utfordrende casestudier fra New England Journal of Medicine.

Resultatene var påfallende:”Microsoft har tatt”et ekte skritt mot medisinsk superintelligens.””Selskapet hevdet at verktøyet kunne diagnostisere sykdommer med fire ganger nøyaktigheten til leger.

Imidlertid er det bredere feltet av medisinsk AI fylt med både løfte og betydelige hurder, noe som antyder at slike krav garanterer forsiktighet. En metaanalyse fra mars 2025 fra Osaka University, publisert i Nature, bød på et mer målt perspektiv.

Etter å ha gjennomgått 83 forskjellige studier, fant den ut at mens generativ AI forbedrer seg, er ytelsen fremdeles langt fra perfekt. Som hovedforsker Dr. Hirotaka Takita bemerket at”at generative AIs diagnostiske evner er sammenlignbare med ikke-spesialistiske leger,”og la til at den fremdeles henger betydelig bak menneskelige spesialister med en margin på 15,, Ugjennomsiktig treningsdata.

Dette gapet mellom benchmark-ytelse og klinisk praksis i den virkelige verden er et tilbakevendende tema. Radiologifeltet fungerer som en kraftig casestudie. I 2016 erklærte

AI-pioner Geoffrey Hinton berømt at”folk skulle slutte å trene radiologer nå.”Likevel, nesten et tiår senere, blomstrer etterspørselen etter menneskelige radiologer, med rekordoppholdsstillinger og stigende lønn.

Dette paradokset avslører de enorme kompleksitetene i regulering, ansvar og arbeidsflytintegrasjon som algoritmer alene ikke kan løse. Forsikringsselskapene skriver i økende grad ‘Absolute AI Exclusion’-bestemmelser i retningslinjer for malpractice, og tvinger sykehus til å holde en lisensiert lege som er lovlig ansvarlig for enhver diagnose og sikre at de menneskelige restene er fast i flere fronter.

Løpet for medisinsk AI blir også utkjempet på flere fronter utover diagnostikk. Europeiske forskere har for eksempel utviklet Delphi-2M, en AI som kan forutsi risiko for over 1000 sykdommer tiår på forhånd ved å analysere helsejournaler.

I mellomtiden har han på Johns Hopkins University.

De uavklarte utfordringene av tillit og nøyaktighet

. Bruken av enorme pasientdatasett for å trene modeller reiser dyptgående spørsmål om personvern. En fersk kontrovers om Storbritannias ‘framsyn’ AI, trent på 57 millioner NHS-poster, fremhevet offentlig angst over datasikkerhet.

Microsofts Copilot står også overfor en bratt stigning i brukeradopsjonen. Appen har blitt lastet ned 95 millioner ganger, en brøkdel av ChatGPTs mer enn en milliard nedlastinger, ifølge Sensortower-data. Å bygge et rykte for nøyaktighet i et følsomt felt som helsevesen kan være en viktig differensierer.

Til slutt vil Microsofts suksess ikke bare avhenge av teknologien, men av dens evne til å overbevise brukerne om at dens AI er en pålitelig kilde for deres viktigste spørsmål. Harvard-partnerskapet er et klart og strategisk skritt mot å bygge den essensielle tilliten.