Microsoft czyni ogromny postęp w dziedzinie sztucznej inteligencji w służbie zdrowia dzięki swojemu asystentowi Copilot. Jak wynika z raportu opublikowanego w The Wall Street Journal, gigant technologiczny nawiązał współpracę z Harvard Medical School, aby zapewnić użytkownikom wiarygodne informacje na temat zdrowia.
Aktualizacja oprogramowania Copilot ma zostać udostępniona wkrótce w tym miesiącu będzie korzystać z treści Harvard Health Publishing, aby odpowiedzieć na pytania medyczne.
To posunięcie stanowi część szerszego celu firmy, jakim jest budowanie własnych modeli sztucznej inteligencji i mniejsze poleganie na swoim partnerze, OpenAI. Koncentrując się na krytycznym sektorze opieki zdrowotnej, Microsoft ma nadzieję zbudować markę Copilot i wytyczyć własną ścieżkę w konkurencyjnym wyścigu sztucznej inteligencji. Strategia ta wydaje się być bezpośrednią próbą zajęcia niszy, w której najważniejsza jest wiarygodność.
Dawka wiarygodności z Harvardu
The współpraca z Harvardem, za którą Microsoft zapłaci opłatę licencyjną, to bezpośrednia próba rozwiązania jednego z największych wyzwań stojącej przed sztuczną inteligencją konsumentów: niezawodności.
Integrując treści cenionego działu Harvard Health Publishing z dużą aktualizacją Copilot zaplanowaną na ten miesiąc, firma zamierza zbudować fundament zaufania wśród użytkowników w drażliwych tematach medycznych. Celem strategicznym jest udzielanie odpowiedzi bardziej zgodnych z informacjami uzyskanymi od lekarza niż standardowy chatbot.
Wiceprezes ds. zdrowia Microsoft AI, Dominic King, potwierdził to, stwierdzając, że celem firmy jest zapewnienie użytkownikom „upewnienia się, że ludzie mają dostęp do wiarygodnych, godnych zaufania informacji zdrowotnych, dostosowanych do ich języka, umiejętności czytania i pisania oraz wszelkich innych rzeczy, które są niezbędne”. King zauważył, że zamierzeniem jest pomoc użytkownikom w podejmowaniu świadomych decyzji dotyczących leczenia złożonych schorzeń, takich jak cukrzyca.
Tak duży nacisk na dokładność jest wyraźną odpowiedzią na dobrze udokumentowane niedociągnięcia sztucznej inteligencji ogólnego przeznaczenia w kontekście medycznym. Na przykład badanie przeprowadzone na Uniwersytecie Stanforda w 2024 r. wykazało, że spośród 382 pytań medycznych zadanych ChatGPT chatbot udzielił „niewłaściwej” odpowiedzi w około 20% przypadków.
Ta luka w wiarygodności nie ogranicza się do chatbotów; kompleksowa metaanaliza przeprowadzona na Uniwersytecie w Osace wykazała, że choć generatywna sztuczna inteligencja zbliża się do umiejętności diagnostycznych lekarzy niespecjalistów, nadal pozostaje znacznie w tyle za ekspertami-ludźmi.
Licencjonując zaufane treści, Microsoft próbuje stworzyć bezpieczniejszą i bardziej niezawodną alternatywę. Stanowi to część szerszych wysiłków mających na celu uczynienie Copilot praktycznym narzędziem zdrowotnym, które obejmuje również opracowywaną funkcję pomagającą użytkownikom znaleźć pobliskie podmioty świadczące opiekę zdrowotną na podstawie ich potrzeb i zakresu ubezpieczenia.
Jednak inicjatywa nie jest pozbawiona znacznych złożoności, szczególnie w przypadku drażliwych tematów. Literatura Harvard Health Publishing zawiera materiały na temat zdrowia psychicznego, ale zapytana firma Microsoft odmówiła określenia, w jaki sposób zaktualizowany Copilot poradzi sobie z takimi zapytaniami.
Jest to kluczowa kwestia, ponieważ interakcja między chatbotami a osobami doświadczającymi kryzysów psychicznych wzbudziła wnikliwą analizę ze strony prawodawców i ekspertów w dziedzinie zdrowia, zwłaszcza po doniesieniach o roli sztucznej inteligencji w sytuacjach kończących się tragedią.
Strategiczne dążenie do niezależności od sztucznej inteligencji
Nowa inicjatywa w zakresie opieki zdrowotnej stanowi kluczową część większej, pilniejszej misji firmy Microsoft: osiągnięcia technologicznej niezależności od OpenAI. Firma aktywnie szkoli własne modele sztucznej inteligencji, a jej długoterminowym celem jest zastąpienie obciążeń obecnie obsługiwanych przez OpenAI, zdaniem osób zaznajomionych z tą sprawą.
Wysiłkami tymi kieruje Mustafa Suleyman, dyrektor generalny działu sztucznej inteligencji dla konsumentów firmy Microsoft. Jego zespół koncentruje się na ulepszaniu własnych modeli Microsoftu.
W sierpniu firma rozpoczęła publiczne testowanie jednego z takich modeli dla Copilot. Ten wzorzec dywersyfikacji jest już widoczny – Microsoft wykorzystuje modele konkurencyjnej firmy OpenAI, Anthropic, w przypadku niektórych ze swoich 365 produktów.
Nacisk na samowystarczalność utrzymuje się pomimo zawartego we wrześniu wstępnego porozumienia w sprawie przedłużenia partnerstwa z OpenAI.
Microsoft publicznie oświadczył, że „OpenAI „będzie nadal naszym partnerem w zakresie pionierskich modeli” i że jego filozofią jest korzystanie z najlepszych dostępnych modeli”, ale jego wewnętrzne działania sygnalizują wyraźną chęć kontrolowania własnego losu sztucznej inteligencji. Dyrektor generalny Satya Nadella przekazał niedawno inne obowiązki, aby skupić się na kluczowych zakładach związanych ze sztuczną inteligencją.
Poruszanie się w wyścigu medycznej sztucznej inteligencji o wysokie stawki
Koncentracja firmy Microsoft na opiece zdrowotnej stawia ją na niezwykle konkurencyjnej i często wzbudzającej emocje arenie. Firma nie jest niczym nowym w odważnych twierdzeniach w tej dziedzinie.
W czerwcu zaprezentowała system MAI-DxO, sztuczną inteligencję zaprojektowaną do rozwiązywania złożonych przypadków medycznych. Według firmy Microsoft system został oceniony pod kątem nowego, rygorystycznego standardu na podstawie trudnych studiów przypadków z New England Journal of Medicine.
Wyniki były uderzające: MAI-DxO poprawnie rozwiązało 85,5% przypadków, podczas gdy panel składający się z 21 praktykujących lekarzy osiągnął średnią dokładność zaledwie 20%.
To skłoniło dyrektora generalnego Microsoft AI Mustafę Suleymana do stwierdzenia: „Microsoft wziął pod uwagę „prawdziwy krok w kierunku superinteligencji medycznej”. Firma zapewniła, że jej narzędzie może diagnozować choroby z czterokrotnie większą dokładnością niż lekarze.
Jednak szersza dziedzina medycznej sztucznej inteligencji jest pełna zarówno obiecujących, jak i znaczących przeszkód, co sugeruje, że takie twierdzenia wymagają ostrożności. Metaanaliza przeprowadzona na Uniwersytecie w Osace z marca 2025 r., opublikowana w czasopiśmie Nature, przedstawiła bardziej wyważoną perspektywę.
Po przejrzeniu 83 różnych badań stwierdzono, że chociaż generatywna sztuczna inteligencja ulega poprawie, jej działanie jest nadal dalekie od doskonałości. Jak zauważył główny badacz, dr Hirotaka Takita, „możliwości diagnostyczne generatywnej sztucznej inteligencji są porównywalne z możliwościami lekarzy niespecjalistów”, dodając, że nadal pozostaje ona w tyle za specjalistami ludzkimi, bo o 15,8%.
Badanie zasygnalizowało również stan badań w tej dziedzinie, stwierdzając, że 76% przeanalizowanych artykułów obarczone było wysokim ryzykiem stronniczości, często z powodu nieprzejrzystego szkolenia danych.
Ta rozbieżność między wynikami testów porównawczych a praktyką kliniczną w świecie rzeczywistym to powracający temat. Dziedzina radiologii służy jako potężne studium przypadku. W 2016 r.
pionier sztucznej inteligencji Geoffrey Hinton zasłynął z wypowiedzi, w której stwierdził, że „ludzie powinni teraz przestać szkolić radiologów”. Jednak prawie dziesięć lat później zapotrzebowanie na radiologów gwałtownie rośnie, co wiąże się z rekordową liczbą stanowisk rezydentów i gwałtownie rosnącymi wynagrodzeniami.
Ten paradoks ujawnia ogromną złożoność przepisów, odpowiedzialności i integracji przepływu pracy, której same algorytmy nie są w stanie rozwiązać. Ubezpieczyciele coraz częściej dopisują klauzule „Absolutnego wykluczenia sztucznej inteligencji” do polityk dotyczących nadużyć w sztuce, zmuszając szpitale do utrzymywania licencjonowanego lekarza zgodnie z prawem odpowiedzialnego za każdą diagnozę i gwarantując, że człowiek pozostaje na bieżąco.
Wyścig o medyczną sztuczną inteligencję toczy się również na wielu frontach poza diagnostyką. Europejscy badacze opracowali na przykład Delphi-2M, sztuczną inteligencję, która na podstawie analizy dokumentacji medycznej może prognozować ryzyko wystąpienia ponad 1000 chorób z dziesięcioletnim wyprzedzeniem.
W międzyczasie na Uniwersytecie Johnsa Hopkinsa system SRT-H wykazał potencjał sztucznej inteligencji w bezpośredniej interwencji, autonomicznie wykonując złożone kroki chirurgiczne na standardowym robocie da Vinci w testach laboratoryjnych.
Te różnorodne podejścia podkreślają ogromne ambicje w całym sektorze, w którym wyzwaniem nie jest jedynie stworzenie dokładnego algorytmu, ale takiego, który będzie bezpieczny, niezawodny i wystarczająco praktyczny do zastosowania klinicznego.
Nierozwiązane wyzwania związane z zaufaniem i dokładnością
Poza wzorcami wydajności największą przeszkodą dla sztucznej inteligencji w medycynie jest zaufanie. Wykorzystanie ogromnych zbiorów danych pacjentów do szkolenia modeli rodzi głębokie pytania dotyczące prywatności. Niedawne kontrowersje wokół brytyjskiej sztucznej inteligencji „Foresight”, wytrenowanej na 57 milionach rekordów NHS, uwypukliły niepokój opinii publicznej dotyczący bezpieczeństwa danych.
Copilot firmy Microsoft również stoi w obliczu gwałtownego wzrostu popularności wśród użytkowników. Według danych Sensor Tower, aplikację pobrano 95 milionów razy, co stanowi ułamek ponad miliarda pobrań ChatGPT. Budowanie reputacji firmy dzięki dokładności w tak wrażliwej dziedzinie, jak opieka zdrowotna, może być kluczowym wyróżnikiem.
Ostatecznie sukces Microsoftu będzie zależał nie tylko od zastosowanej technologii, ale także od jego zdolności do przekonania użytkowników, że sztuczna inteligencja jest niezawodnym źródłem odpowiedzi na ich najważniejsze pytania. Partnerstwo z Harvardem to wyraźny i strategiczny krok w kierunku budowania tego niezbędnego zaufania.