Microsoft sta facendo un grande passo avanti nel campo dell’intelligenza artificiale nel settore sanitario con il suo assistente Copilot. Secondo un rapporto del Wall Street Journal, il colosso della tecnologia ha collaborato con la Harvard Medical School per fornire agli utenti informazioni sanitarie affidabili.
Un aggiornamento per Copilot, che verrà lanciato a breve come questo mese, attingerà ai contenuti di Harvard Health Publishing per rispondere a domande mediche.
Questa mossa fa parte di un obiettivo aziendale più ampio di costruire i propri modelli di intelligenza artificiale e fare meno affidamento sul proprio partner, OpenAI. Prendendo di mira il settore sanitario critico, Microsoft spera di costruire il marchio Copilot e forgiare il proprio percorso nella corsa competitiva all’intelligenza artificiale. La strategia sembra essere un tentativo diretto di ritagliarsi una nicchia in cui la credibilità è fondamentale.
Una dose di credibilità da Harvard
La la collaborazione con Harvard, per la quale Microsoft pagherà una quota di licenza, è un tentativo diretto di risolvere una delle maggiori sfide per l’intelligenza artificiale dei consumatori: l’affidabilità.
Integrando i contenuti della stimata divisione Harvard Health Publishing in un importante aggiornamento di Copilot previsto per questo mese, l’azienda mira a costruire una base di fiducia con gli utenti su argomenti medici delicati. L’obiettivo strategico è fornire risposte più in linea con le informazioni di un medico rispetto a quelle di un chatbot standard.
Il vicepresidente della sanità di Microsoft AI, Dominic King, lo ha confermato, affermando che l’obiettivo dell’azienda è quello di fornire agli utenti”è essenziale garantire che le persone abbiano accesso a informazioni sanitarie credibili e affidabili, adattate alla loro lingua e alla loro alfabetizzazione e ogni genere di cose”. King ha osservato che l’intento è quello di aiutare gli utenti a prendere decisioni informate sulla gestione di condizioni complesse come il diabete.
Questa forte attenzione all’accuratezza è una chiara risposta alle carenze ben documentate dell’IA generica in contesti medici. Uno studio della Stanford University del 2024, ad esempio, ha rilevato che su 382 domande mediche poste a ChatGPT, il chatbot ha fornito una risposta”inappropriata”in circa il 20% dei casi.
Questo divario di credibilità non è limitato ai chatbot; una meta-analisi completa dell’Università di Osaka ha rilevato che, sebbene l’intelligenza artificiale generativa si stia avvicinando alle capacità diagnostiche dei medici non specializzati, è ancora molto indietro rispetto agli esperti umani.
Concedendo in licenza contenuti affidabili, Microsoft sta cercando di costruire un’alternativa più sicura e affidabile. Ciò fa parte di uno sforzo più ampio per rendere Copilot uno strumento sanitario pratico, che include anche una funzionalità in fase di sviluppo per aiutare gli utenti a trovare operatori sanitari nelle vicinanze in base alle loro esigenze e alla copertura assicurativa.
Tuttavia, l’iniziativa non è priva di complessità significative, in particolare su argomenti delicati. La letteratura dell’Harvard Health Publishing include materiale sulla salute mentale, ma, interrogata, Microsoft ha rifiutato di specificare come il Copilot aggiornato avrebbe gestito tali domande.
Si tratta di una questione critica, poiché l’interazione tra chatbot e individui che vivono crisi di salute mentale ha attirato un attento esame da parte di legislatori ed esperti sanitari, in particolare a seguito delle segnalazioni di un ruolo dell’intelligenza artificiale in situazioni finite in tragedia.
La spinta strategica per l’indipendenza dall’IA
La nuova iniziativa sanitaria è una parte fondamentale di una missione più ampia e urgente all’interno di Microsoft: raggiungere l’indipendenza tecnologica da OpenAI. L’azienda sta formando attivamente i propri modelli di intelligenza artificiale con l’obiettivo a lungo termine di sostituire i carichi di lavoro attualmente gestiti da OpenAI, secondo persone che hanno familiarità con la questione.
Questo sforzo è guidato da Mustafa Suleyman, CEO della divisione AI consumer di Microsoft. Il suo team è concentrato sullo sviluppo dei modelli interni di Microsoft.
Ad agosto, la società ha iniziato a testare pubblicamente uno di questi modelli per Copilot. Questo modello di diversificazione è già visibile, con Microsoft che utilizza modelli del rivale Anthropic di OpenAI per alcuni dei suoi prodotti 365.
La spinta verso l’autosufficienza continua nonostante un accordo provvisorio a settembre per estendere la partnership con OpenAI.
Microsoft ha dichiarato pubblicamente che”OpenAI’continuerà a essere il nostro partner sui modelli di frontiera’e che la sua filosofia è quella di utilizzare i migliori modelli disponibili”, ma le sue azioni interne segnalano un chiaro desiderio di controllare il proprio destino dell’IA. Il CEO Satya Nadella ha recentemente delegato altri compiti per concentrarsi sulle scommesse chiave sull’intelligenza artificiale.
Navigare in una corsa all’intelligenza artificiale medica ad alto rischio
L’attenzione di Microsoft all’assistenza sanitaria la colloca in un’arena fortemente competitiva e spesso pubblicizzata. L’azienda non è nuova a fare affermazioni audaci in questo ambito.
A giugno ha presentato il suo sistema MAI-DxO, un’intelligenza artificiale progettata per affrontare casi medici complessi. Secondo Microsoft, il sistema è stato valutato rispetto a un nuovo e rigoroso standard utilizzando casi di studio impegnativi del New England Journal of Medicine.
I risultati sono stati sorprendenti: MAI-DxO ha risolto correttamente l’85,5% dei casi, mentre un gruppo di 21 medici praticanti ha raggiunto una precisione media di appena il 20%.
Ciò ha spinto il CEO di Microsoft AI Mustafa Suleyman ad affermare:”Microsoft ha preso”un vero passo avanti verso la superintelligenza medica.”L’azienda ha affermato che il suo strumento potrebbe diagnosticare malattie con una precisione quattro volte superiore a quella dei medici.
Tuttavia, il campo più ampio dell’intelligenza artificiale medica è pieno di promesse e ostacoli significativi, suggerendo che tali affermazioni meritano cautela. Una meta-analisi del marzo 2025 dell’Università di Osaka, pubblicata su Nature, ha offerto una prospettiva più misurata.
Dopo aver esaminato 83 studi diversi, ha scoperto che, sebbene l’intelligenza artificiale generativa stia migliorando, le sue prestazioni sono ancora lungi dall’essere perfette. Come ha osservato il ricercatore capo Dr. Hirotaka Takita,”le capacità diagnostiche dell’intelligenza artificiale generativa sono paragonabili a quelle dei medici non specialisti”, aggiungendo che è ancora significativamente in ritardo rispetto agli specialisti umani con un margine del 15,8%.
Lo studio ha anche sollevato un campanello d’allarme sullo stato della ricerca nel campo, scoprendo che il 76% dei documenti analizzati presentava un alto rischio di parzialità, spesso a causa di informazioni opache. dati di formazione.
Questo divario tra le prestazioni di riferimento e la pratica clinica nel mondo reale è un tema ricorrente. Il campo della radiologia funge da potente caso di studio. Nel 2016,
il pioniere dell’intelligenza artificiale Geoffrey Hinton ha dichiarato che”le persone dovrebbero smettere di formare i radiologi adesso”. Eppure, quasi un decennio dopo, la domanda di radiologi umani è in forte espansione, con posizioni di residenza record e stipendi in aumento.
Questo paradosso rivela le immense complessità di regolamentazione, responsabilità e integrazione del flusso di lavoro che gli algoritmi da soli non possono risolvere. Gli assicuratori inseriscono sempre più clausole di”esclusione assoluta dell’IA”nelle polizze di negligenza, costringendo gli ospedali a mantenere un medico autorizzato legalmente responsabile di qualsiasi diagnosi e garantendo che l’essere umano rimanga saldamente nel circuito.
La corsa all’IA medica viene combattuta anche su più fronti oltre alla diagnostica. I ricercatori europei, ad esempio, hanno sviluppato Delphi-2M, un’intelligenza artificiale in grado di prevedere il rischio di oltre 1.000 malattie con decenni di anticipo analizzando le cartelle cliniche.
Nel frattempo, presso la Johns Hopkins University, il sistema SRT-H ha dimostrato il potenziale dell’intelligenza artificiale nell’intervento diretto, eseguendo in modo autonomo passaggi chirurgici complessi su un robot Da Vinci standard in test di laboratorio.
Questi vari approcci sottolineano la grande ambizione di tutto il settore, dove la sfida non consiste solo nel creare un algoritmo accurato, ma anche un algoritmo che sia sicuro, affidabile e sufficientemente pratico per l’adozione clinica.
Le sfide irrisolte di fiducia e accuratezza
Al di là dei parametri di riferimento delle prestazioni, il più grande ostacolo per l’intelligenza artificiale in medicina è la fiducia. L’uso di vasti set di dati di pazienti per addestrare i modelli solleva profonde questioni sulla privacy. Una recente controversia sull’intelligenza artificiale”Foresight”del Regno Unito, addestrata su 57 milioni di record del servizio sanitario nazionale, ha evidenziato l’ansia del pubblico per la sicurezza dei dati.
Anche Copilot di Microsoft deve affrontare una forte crescita nell’adozione da parte degli utenti. Secondo i dati di Sensor Tower, l’app è stata scaricata 95 milioni di volte, una frazione degli oltre un miliardo di download di ChatGPT. Costruirsi una reputazione di accuratezza in un campo delicato come quello sanitario potrebbe essere un fattore chiave di differenziazione.
In definitiva, il successo di Microsoft dipenderà non solo dalla sua tecnologia, ma dalla sua capacità di convincere gli utenti che la sua intelligenza artificiale è una fonte affidabile per le loro domande più importanti. La partnership con Harvard rappresenta un passo chiaro e strategico verso la costruzione di quella fiducia essenziale.