A Microsoft está dando um grande impulso na IA de saúde com seu assistente Copilot. A gigante da tecnologia fez parceria com a Harvard Medical School para fornecer aos usuários informações confiáveis ​​sobre saúde, de acordo com um relatório do The Wall Street Journal.

Uma atualização para o Copilot, com lançamento previsto para breve. este mês, aproveitará o conteúdo da Harvard Health Publishing para responder a perguntas médicas.

Essa mudança faz parte de um objetivo mais amplo da empresa de construir seus próprios modelos de IA e depender menos de seu parceiro, OpenAI. Ao visar o setor crítico da saúde, a Microsoft espera construir a marca Copilot e abrir o seu próprio caminho na competitiva corrida da IA. A estratégia parece ser uma tentativa direta de conquistar um nicho onde a credibilidade é fundamental.

Uma dose de credibilidade de Harvard

A A colaboração com Harvard, pela qual a Microsoft pagará uma taxa de licenciamento, é uma tentativa direta de resolver um dos maiores desafios para a IA do consumidor: a confiabilidade.

Ao integrar o conteúdo do estimado braço da Harvard Health Publishing em uma grande atualização do Copilot agendada para este mês, a empresa pretende construir uma base de confiança com os usuários sobre tópicos médicos sensíveis. O objetivo estratégico é fornecer respostas mais alinhadas com as informações de um médico do que um chatbot padrão.

O vice-presidente de saúde da Microsoft AI, Dominic King, confirmou isso, afirmando que o objetivo da empresa é fornecer aos usuários “garantir que as pessoas tenham acesso a informações de saúde confiáveis ​​e confiáveis, adaptadas ao seu idioma e à sua alfabetização e a todos os tipos de coisas, é essencial”. King observou que a intenção é ajudar os usuários a tomar decisões informadas sobre o gerenciamento de condições complexas, como diabetes.

Esse foco acentuado na precisão é uma resposta clara às deficiências bem documentadas da IA ​​de uso geral em contextos médicos. Um estudo de 2024 da Universidade de Stanford, por exemplo, descobriu que de 382 perguntas médicas feitas ao ChatGPT, o chatbot forneceu uma resposta “inadequada” em cerca de 20% dos casos.

Essa lacuna de credibilidade não se limita aos chatbots; uma meta-análise abrangente da Universidade de Osaka concluiu que, embora a IA generativa esteja a aproximar-se da capacidade de diagnóstico dos médicos não especialistas, ainda está significativamente aquém dos especialistas humanos.

Ao licenciar conteúdos fiáveis, a Microsoft está a tentar construir uma alternativa mais segura e fiável. Isto faz parte de um esforço mais amplo para tornar o Copilot uma ferramenta prática de saúde, que também inclui um recurso em desenvolvimento para ajudar os usuários a encontrar prestadores de cuidados de saúde próximos com base em suas necessidades e cobertura de seguro.

No entanto, a iniciativa apresenta complexidades significativas, especialmente em torno de tópicos delicados. A literatura da Harvard Health Publishing inclui material sobre saúde mental, mas quando questionada, a Microsoft se recusou a especificar como o Copilot atualizado lidaria com essas questões.

Esta é uma questão crítica, já que a interação entre chatbots e indivíduos que enfrentam crises de saúde mental atraiu intenso escrutínio de legisladores e especialistas em saúde, especialmente após relatos de que a IA desempenhou um papel em situações que terminaram em tragédia.

O impulso estratégico para a independência da IA

A nova iniciativa de saúde é uma parte fundamental de uma missão maior e mais urgente dentro da Microsoft: alcançar a independência tecnológica da OpenAI. A empresa está treinando ativamente seus próprios modelos de IA com o objetivo de longo prazo de substituir as cargas de trabalho atualmente gerenciadas pela OpenAI, de acordo com pessoas familiarizadas com o assunto.

Esse esforço está sendo conduzido por Mustafa Suleyman, CEO da divisão de IA de consumo da Microsoft. Sua equipe está focada no avanço dos modelos desenvolvidos internamente pela Microsoft.

Em agosto, a empresa começou a testar publicamente um desses modelos para o Copilot. Este padrão de diversificação já é visível, com a Microsoft a utilizar modelos da Anthropic, rival da OpenAI, para alguns dos seus produtos 365.

O impulso para a autossuficiência continua, apesar de um acordo provisório em Setembro para alargar a parceria com a OpenAI.

A Microsoft declarou publicamente que “a OpenAI ‘continuará a ser nossa parceira em modelos de fronteira’ e que a sua filosofia é utilizar os melhores modelos disponíveis”, mas as suas ações internas sinalizam um desejo claro de controlar o seu próprio destino de IA. O CEO Satya Nadella delegou recentemente outras funções para se concentrar nas principais apostas em IA.

Navegando em uma corrida de IA médica de alto risco

O foco da Microsoft na saúde a coloca em uma arena ferozmente competitiva e muitas vezes sensacionalista. A empresa não é novata em fazer afirmações ousadas neste espaço.

Em junho, ela revelou seu sistema MAI-DxO, uma IA projetada para lidar com casos médicos complexos. De acordo com a Microsoft, o sistema foi avaliado de acordo com um novo padrão rigoroso usando estudos de caso desafiadores do New England Journal of Medicine.

Os resultados foram surpreendentes: o MAI-DxO resolveu corretamente 85,5% dos casos, enquanto um painel de 21 médicos praticantes alcançou uma precisão média de apenas 20%.

Isso levou o CEO da Microsoft AI, Mustafa Suleyman, a afirmar: “A Microsoft tomou ‘um um passo genuíno em direção à superinteligência médica.'”A empresa afirmou que sua ferramenta poderia diagnosticar doenças com quatro vezes a precisão dos médicos.

No entanto, o campo mais amplo da IA médica está repleto de promessas e obstáculos significativos, sugerindo que tais afirmações merecem cautela. Uma meta-análise de março de 2025 da Universidade de Osaka, publicada na Nature, ofereceu uma perspetiva mais ponderada.

Depois de analisar 83 estudos diferentes, descobriu que, embora a IA generativa esteja a melhorar, o seu desempenho ainda está longe de ser perfeito. Como observou o pesquisador principal, Dr. Hirotaka Takita, “que as capacidades de diagnóstico da IA ​​generativa são comparáveis ​​às dos médicos não especialistas”, acrescentando que ela ainda está significativamente atrás dos especialistas humanos por uma margem de 15,8%.

O estudo também levantou uma bandeira vermelha sobre o estado da pesquisa na área, descobrindo que 76% dos artigos analisados ​​tinham um alto risco de viés, muitas vezes devido ao treinamento opaco. dados.

Essa lacuna entre o desempenho de referência e a prática clínica do mundo real é um tema recorrente. O campo da radiologia serve como um poderoso estudo de caso. Em 2016,

o pioneiro da IA, Geoffrey Hinton, declarou a famosa declaração de que “as pessoas deveriam parar de treinar radiologistas agora”. No entanto, quase uma década depois, a procura por radiologistas humanos está a crescer, com posições de residência recorde e salários crescentes.

Este paradoxo revela as imensas complexidades da regulamentação, responsabilidade e integração do fluxo de trabalho que os algoritmos por si só não conseguem resolver. As seguradoras estão cada vez mais inscrevendo cláusulas de “exclusão absoluta de IA” em políticas de negligência médica, forçando os hospitais a manter um médico licenciado legalmente responsável por qualquer diagnóstico e garantindo que o ser humano permaneça firmemente informado.

A corrida pela IA médica também está sendo travada em diversas frentes além do diagnóstico. Pesquisadores europeus, por exemplo, desenvolveram o Delphi-2M, uma IA que pode prever o risco de mais de 1.000 doenças com décadas de antecedência, analisando registros de saúde.

Enquanto isso, na Universidade Johns Hopkins, o sistema SRT-H demonstrou o potencial da IA ​​em intervenção direta, executando de forma autônoma etapas cirúrgicas complexas em um robô da Vinci padrão em testes de laboratório.

Essas abordagens variadas sublinham a vasta ambição em todo o setor, onde o desafio não é apenas criar um algoritmo preciso, mas um que seja seguro, confiável e prático o suficiente para adoção clínica.

Os desafios não resolvidos de confiança e precisão

Além dos benchmarks de desempenho, o maior obstáculo para a IA na medicina é a confiança. O uso de vastos conjuntos de dados de pacientes para treinar modelos levanta profundas questões de privacidade. Uma recente controvérsia sobre a IA “Foresight” do Reino Unido, treinada em 57 milhões de registos do NHS, destacou a ansiedade do público relativamente à segurança dos dados.

O Copilot da Microsoft também enfrenta um aumento acentuado na adoção pelos utilizadores. O aplicativo foi baixado 95 milhões de vezes, uma fração dos mais de um bilhão de downloads do ChatGPT, de acordo com dados da Sensor Tower. Construir uma reputação de precisão numa área sensível como a saúde pode ser um diferencial importante.

Em última análise, o sucesso da Microsoft dependerá não apenas da sua tecnologia, mas da sua capacidade de convencer os utilizadores de que a sua IA é uma fonte fiável para as suas questões mais importantes. A parceria com Harvard é um passo claro e estratégico para construir essa confiança essencial.

Categories: IT Info