A

A Microsoft jelentős lendületet ad az Healthcare AI-hez a Copilot Assistant-nal. A technológiai óriás együttműködött a Harvard Medical School-nal, hogy megbízható egészségügyi információkat nyújtson a felhasználóknak, a Blank”> Blank”> Jelentés, a The Wall Street Journal-ból. Ebben a hónapban a Harvard Health Publishing tartalmakra támaszkodik az orvosi lekérdezések megválaszolására. A kritikus egészségügyi ágazat megcélzásával a Microsoft reméli, hogy felépíti a Copilot márkáját, és megteremti saját útját a versenyképes AI versenyen. A stratégia úgy tűnik, hogy közvetlen kísérlet egy olyan rést, ahol a hitelesség kiemelkedő fontosságú. A Harvarddal, amelyért a Microsoft fizet egy engedélyezési díjat, közvetlen kísérlet a fogyasztói AI egyik legnagyobb kihívásának megoldására: a megbízhatóság. A stratégiai cél az, hogy olyan válaszokat adjon, amelyek jobban igazodnak az orvosoktól, mint a szokásos chatbothoz. King megjegyezte, hogy az a szándék, hogy segítse a felhasználókat megalapozott döntések meghozatalában az olyan összetett állapotok, például a cukorbetegség kezeléséről. Például egy 2024-es Stanfordi Egyetemi tanulmány megállapította, hogy a CHATGPT-nek felvetett 382 orvosi kérdés közül a chatbot „nem megfelelő” választ adott az esetek nagyjából 20%-ánál. Az Oszaka Egyetemen átfogó metaanalízis azt találta, hogy míg a generatív AI megközelíti a nem szakemberek diagnosztikai készségét, ez továbbra is jelentősen elmarad az emberi szakértőktől. Ez egy szélesebb körű erőfeszítés része annak érdekében, hogy a Copilot gyakorlati egészségügyi eszköz legyen, amely magában foglalja a fejlesztés során egy olyan funkciót is, amely segít a felhasználóknak a közeli egészségügyi szolgáltatók megtalálásában az igényeik és a biztosítási fedezet alapján. A Harvard Health Publishing Irodalom a mentális egészségről szóló anyagokat tartalmazza, de amikor megkérdőjelezik, a Microsoft elutasította annak meghatározását, hogy a frissített ropilot hogyan kezeli az ilyen lekérdezéseket.

Az AI függetlenség stratégiai lendülete

Az új egészségügyi kezdeményezés egy nagyobb, sürgetőbb misszió kulcsfontosságú része a Microsofton belül: A technológiai függetlenség elérése az Openai-tól. A vállalat aktívan képzi saját AI modelleit azzal a hosszú távú céllal, hogy cserélje ki az OpenAI által jelenleg kezelt munkaterhelést, az ügyet ismerő emberek szerint. Csapata a Microsoft otthoni modelljeinek előmozdítására összpontosít. Ez a diverzifikációs minta már látható, a Microsoft az Openai rivális antropikus modelljeinek felhasználásával a 365 termékek közül néhányat használ.

A Microsoft nyilvánosan kijelentette, hogy az „Openai” továbbra is partnerünk lesz a Frontier Models-ben “, és filozófiája az, hogy a rendelkezésre álló legjobb modelleket használja”, de belső cselekedetei egyértelmű vágyat jeleznek a saját AI sorsának ellenőrzésére. Satya Nadella vezérigazgató nemrégiben más feladatokat ruházott át a kulcsfontosságú AI-fogadásokra. A társaság nem újdonság a merész igények kidolgozásában ebben a térben. A Microsoft Microsoft szerint a rendszert szigorú új szabvány alapján értékelték, a New England Journal of Medicine. „Valódi lépés az orvosi szuperintelligencia felé.” “A vállalat azt állította, hogy eszköze az orvosok pontosságának négyszerese diagnosztizálhatja a betegségeket. A Nature-ban közzétett Oszaka Egyetem 2025. márciusi metaanalízise mért perspektívát kínálott. Mint a vezető kutató, Dr. Hirotaka Takita megjegyezte, hogy „a generációs AI diagnosztikai képességei összehasonlíthatók a nem szakemberekkel”, hozzátette, hogy ez még mindig jelentősen elmarad az emberi szakemberektől, 15,8%-os margóval. Képzési adatok.

Ez a rés a referencia-teljesítmény és a valós klinikai gyakorlat között ismétlődő téma. A radiológia területe erőteljes esettanulmányként szolgál. 2016-ban a

ai úttörő Geoffrey Hinton híresen kijelentette, hogy „az embereknek most abba kell hagyniuk a radiológusok képzését”. Ugyanakkor közel egy évtizeddel később az emberi radiológusok iránti kereslet virágzik, rekordos tartózkodási pozícióval és szárnyaló fizetésekkel. A biztosítók egyre inkább „abszolút AI kizárási” záradékokat írnak a szabálytalanságpolitikákba, arra kényszerítve a kórházakat, hogy az engedéllyel rendelkező orvosok törvényesen felelősek legyenek a diagnózisáért, és biztosítsák, hogy az ember szilárdan maradjon a hurokban. Az európai kutatók például kifejlesztették a Delphi-2M-et, egy olyan AI-t, amely több mint 1000 betegség kockázatát előre tudja előre jelezni évtizedek óta az egészségügyi nyilvántartások elemzésével. A hatalmas ambíció az ágazatban, ahol a kihívás nem csak a pontos algoritmus létrehozásáról szól, hanem a biztonságos, megbízható és elég praktikus a klinikai elfogadáshoz. A hatalmas beteg-adatkészletek használata modellek képzésére mély adatvédelmi kérdéseket vet fel. Az Egyesült Királyság „Foresight” AI-jével kapcsolatos, az 57 millió NHS-nyilvántartáson képzett nemrégiben zajló vita kiemelte az adatbiztonsággal kapcsolatos nyilvános szorongást. Az alkalmazást 95 millió alkalommal töltötték le, ami a Chatgpt több mint egymilliárd letöltésének töredéke, az Sensor Tower Data szerint. A pontosság hírnevének kiépítése egy olyan érzékeny területen, mint az Healthcare, kulcsfontosságú megkülönböztető lehet. A Harvard partnerség egyértelmű és stratégiai lépés az alapvető bizalom kiépítése felé.