Microsoft zet een grote stap in de AI in de gezondheidszorg met zijn Copilot-assistent. De technologiegigant werkt samen met de Harvard Medical School om gebruikers betrouwbare gezondheidsinformatie te bieden, volgens een rapport van The Wall Street Journal.

Een update voor Copilot, die zo snel mogelijk wordt gelanceerd zal, zoals deze maand, gebruik maken van inhoud van Harvard Health Publishing om medische vragen te beantwoorden.

Deze stap maakt deel uit van een breder bedrijfsdoel om zijn eigen AI-modellen te bouwen en minder afhankelijk te zijn van zijn partner, OpenAI. Door zich te richten op de cruciale gezondheidszorgsector hoopt Microsoft het merk Copilot op te bouwen en zijn eigen weg te banen in de competitieve AI-race. De strategie lijkt een directe poging te zijn om een ​​niche te veroveren waarin geloofwaardigheid voorop staat.

Een dosis geloofwaardigheid van Harvard

De De samenwerking met Harvard, waarvoor Microsoft een licentievergoeding zal betalen, is een directe poging om een van de grootste uitdagingen voor consumenten-AI op te lossen: betrouwbaarheid.

Door inhoud van de gewaardeerde Harvard Health Publishing-tak te integreren in een grote Copilot-update die deze maand gepland staat, wil het bedrijf een vertrouwensbasis opbouwen met gebruikers over gevoelige medische onderwerpen. Het strategische doel is om antwoorden te bieden die beter aansluiten bij de informatie van een arts dan die van een standaardchatbot.

Microsoft AI’s Vice President of Health, Dominic King, bevestigde dit en stelde dat het doel van het bedrijf is om gebruikers te voorzien van”ervoor te zorgen dat mensen toegang hebben tot geloofwaardige, betrouwbare gezondheidsinformatie die is afgestemd op hun taal en hun geletterdheid en allerlei zaken die essentieel zijn.”King merkte op dat het de bedoeling is om gebruikers te helpen weloverwogen beslissingen te nemen over het omgaan met complexe aandoeningen zoals diabetes.

Deze scherpe focus op nauwkeurigheid is een duidelijk antwoord op de goed gedocumenteerde tekortkomingen van AI voor algemene doeleinden in medische contexten. Uit een onderzoek van Stanford University uit 2024 bleek bijvoorbeeld dat van de 382 medische vragen die aan ChatGPT werden gesteld, de chatbot in ongeveer 20% van de gevallen een “ongepast” antwoord gaf.

Deze geloofwaardigheidskloof beperkt zich niet tot chatbots; Uit een uitgebreide meta-analyse van de Universiteit van Osaka is gebleken dat, hoewel generatieve AI de diagnostische vaardigheden van niet-gespecialiseerde artsen benadert, deze nog steeds aanzienlijk achterblijft bij menselijke experts.

Door vertrouwde inhoud te licentiëren, probeert Microsoft een veiliger, betrouwbaarder alternatief te bouwen. Dit maakt deel uit van een bredere inspanning om van Copilot een praktisch hulpmiddel voor de gezondheidszorg te maken, dat ook een functie in ontwikkeling heeft om gebruikers te helpen gezondheidszorgaanbieders in de buurt te vinden op basis van hun behoeften en verzekeringsdekking.

Het initiatief is echter niet zonder aanzienlijke complexiteiten, vooral rond gevoelige onderwerpen. De literatuur van Harvard Health Publishing bevat materiaal over geestelijke gezondheid, maar bij ondervraging weigerde Microsoft te specificeren hoe de bijgewerkte Copilot dergelijke vragen zou afhandelen.

Dit is een kritieke kwestie, omdat de interactie tussen chatbots en individuen die een geestelijke gezondheidscrisis ervaren, intensief onderzoek heeft getrokken van wetgevers en gezondheidsexperts, vooral na berichten dat AI een rol speelt in situaties die in een tragedie eindigden.

De strategische drang naar AI-onafhankelijkheid

Het nieuwe gezondheidszorginitiatief is een belangrijk onderdeel van een grotere, urgentere missie binnen Microsoft: het bereiken van technologische onafhankelijkheid van OpenAI. Het bedrijf traint actief zijn eigen AI-modellen met als langetermijndoel het vervangen van de werklasten die momenteel door OpenAI worden afgehandeld, volgens mensen die bekend zijn met de kwestie.

Deze inspanning wordt aangestuurd door Mustafa Suleyman, CEO van de consumenten-AI-divisie van Microsoft. Zijn team richt zich op het bevorderen van de eigen modellen van Microsoft.

In augustus begon het bedrijf publiekelijk een dergelijk model voor Copilot te testen. Dit patroon van diversificatie is al zichtbaar, waarbij Microsoft voor sommige van zijn 365 producten modellen van OpenAI’s rivaal Anthropic gebruikt.

De drang naar zelfredzaamheid gaat door ondanks een voorlopig akkoord in september om de samenwerking met OpenAI uit te breiden.

Microsoft heeft publiekelijk verklaard dat “OpenAI ‘onze partner zal blijven op het gebied van grensmodellen’ en dat het zijn filosofie is om de beste beschikbare modellen te gebruiken”, maar zijn interne acties duiden op een duidelijke wens om zijn eigen AI-lot te beheersen. CEO Satya Nadella heeft onlangs andere taken gedelegeerd om zich te concentreren op belangrijke AI-weddenschappen.

Navigeren in een medische AI-race met hoge inzet

Microsoft’s focus op gezondheidszorg plaatst het bedrijf in een fel competitieve en vaak gehypte arena. Het bedrijf is niet nieuw op het gebied van gewaagde beweringen op dit gebied.

In juni onthulde het zijn MAI-DxO-systeem, een AI die is ontworpen om complexe medische gevallen aan te pakken. Volgens Microsoft werd het systeem geëvalueerd aan de hand van een strenge nieuwe standaard aan de hand van uitdagende casestudy’s uit de New England Journal of Medicine.

De resultaten waren opvallend: MAI-DxO loste 85,5% van de gevallen correct op, terwijl een panel van 21 praktiserende artsen een gemiddelde nauwkeurigheid van slechts 20% bereikte.

Dit bracht Microsoft AI-CEO Mustafa Suleyman ertoe te beweren:”Microsoft heeft ‘een echte stap in de richting van medische superintelligentie.'”Het bedrijf beweerde dat zijn tool ziekten kon diagnosticeren met vier keer de nauwkeurigheid van artsen.

Het bredere veld van medische AI is echter gevuld met zowel veelbelovende als aanzienlijke hindernissen, wat suggereert dat dergelijke claims voorzichtigheid rechtvaardigen. Een meta-analyse uit maart 2025 van de Universiteit van Osaka, gepubliceerd in Nature, bood een meer afgemeten perspectief.

Na beoordeling van 83 verschillende onderzoeken bleek dat hoewel generatieve AI verbetert, de prestaties ervan nog steeds verre van perfect zijn. Zoals hoofdonderzoeker dr. Hirotaka Takita opmerkte “dat de diagnostische capaciteiten van generatieve AI vergelijkbaar zijn met die van niet-gespecialiseerde artsen”, voegde hij eraan toe dat het nog steeds aanzienlijk achterloopt op menselijke specialisten, met een marge van 15,8%.

Het onderzoek bracht ook een alarmsignaal naar voren over de stand van het onderzoek in het veld, waarbij werd vastgesteld dat 76% van de geanalyseerde artikelen een hoog risico op vooringenomenheid vertoonde, vaak als gevolg van ondoorzichtige training gegevens.

Deze kloof tussen benchmarkprestaties en de klinische praktijk in de echte wereld is een terugkerend thema. Het vakgebied radiologie dient als een krachtige case study. In 2016 verklaarde AI-pionier Geoffrey Hinton de beroemde uitspraak dat “mensen nu moeten stoppen met het opleiden van radiologen.” Maar bijna tien jaar later groeit de vraag naar menselijke radiologen enorm, met recordposities in residenties en stijgende salarissen.

Deze paradox onthult de immense complexiteit van regelgeving, aansprakelijkheid en workflow-integratie die algoritmen alleen niet kunnen oplossen. Verzekeraars nemen steeds vaker ‘Absolute AI Exclusion’-clausules op in beleid tegen wanpraktijken, waardoor ziekenhuizen worden gedwongen een gediplomeerde arts juridisch verantwoordelijk te houden voor elke diagnose en ervoor te zorgen dat de mens nauwgezet op de hoogte blijft.

De race om medische AI ​​wordt ook op meerdere fronten uitgevochten, ook buiten de diagnostiek. Europese onderzoekers hebben bijvoorbeeld Delphi-2M ontwikkeld, een AI die tientallen jaren van tevoren risico’s voor meer dan 1.000 ziekten kan voorspellen door gezondheidsdossiers te analyseren.

Ondertussen heeft het SRT-H-systeem aan de Johns Hopkins University het potentieel aangetoond voor AI bij directe interventie, waarbij autonoom complexe chirurgische stappen worden uitgevoerd op een standaard Da Vinci-robot in laboratoriumtests.

Deze gevarieerde benaderingen onderstrepen de enorme ambitie in de hele sector, waarbij de uitdaging niet alleen gaat over het creëren van een accuraat algoritme, maar een algoritme dat veilig, betrouwbaar en praktisch genoeg is voor klinische adoptie.

De onopgeloste uitdagingen van vertrouwen en nauwkeurigheid

Naast prestatiebenchmarks is vertrouwen het grootste obstakel voor AI in de geneeskunde. Het gebruik van enorme patiëntdatasets om modellen te trainen roept diepgaande privacyvragen op. Een recente controverse over de Britse ‘Foresight’ AI, getraind op 57 miljoen NHS-records, heeft de publieke bezorgdheid over gegevensbeveiliging benadrukt.

Microsoft’s Copilot wordt ook geconfronteerd met een steile klim in gebruikersacceptatie. De app is 95 miljoen keer gedownload, een fractie van de meer dan een miljard downloads van ChatGPT, volgens gegevens van Sensor Tower. Het opbouwen van een reputatie voor nauwkeurigheid op een gevoelig gebied als de gezondheidszorg kan een belangrijke onderscheidende factor zijn.

Uiteindelijk zal het succes van Microsoft niet alleen afhangen van zijn technologie, maar ook van zijn vermogen om gebruikers ervan te overtuigen dat zijn AI een betrouwbare bron is voor hun belangrijkste vragen. Het partnerschap met Harvard is een duidelijke en strategische stap in de richting van het opbouwen van dat essentiële vertrouwen.

Categories: IT Info