生成的AI模型在醫學診斷方面正在與非專業醫生縮小差距,但根據來自。這項由Hirotaka Takita博士和Daiju Ueda副教授領導的研究系統地審查了83項研究,以將AI績效與醫生進行比較,揭示了AI的平均AI診斷準確性為52.1%。

發表在Nature on March 22, the meta-analysis sifted through more than 18,000 papers published since June 2018. It evaluated a range of AI, including heavily studied models like GPT-4 as well as others specifically mentioned like Llama3 70B, Gemini 1.5 Pro, and Claude 3 Sonnet.

The core comparison showed AI’s diagnostic performance was statistically similar對於非專業醫生的醫生,只有0.6%的差異有利於人類。但是,醫學專家保持清晰的優勢,準確性的優於15.8%的差距。複雜性

AI模型在不同的醫學學科中表現出可變的成功。它們在皮膚病學上表現出了特殊的力量,在該領域中,視覺模式識別(當前AI的強項)起著很大的作用。然而,研究人員警告說,皮膚病學還需要視覺匹配以外的複雜推理。

相反,表明泌尿科水平的發現的結果主要是由於它們主要源自一項大型研究,從而限制了這些結果如何應用。 通常,分析表明,在處理需要解釋廣泛,詳細的患者信息的複雜案例時,AI往往會搖搖欲墜,在該領域中,專家經常通過經驗和細微的臨床推理來表現出色。

ai作為助手,而不是替換

的準確培訓,儘管對專家的培訓和臨時訓練均應進行臨時​​ii儀,並且臨時是ai的臨時。大阪大都會大學在2025年4月18日的聲明中引用了武田博士的可能性:“這項研究表明,生成性AI的診斷能力與非專業醫生相媲美。它可以在醫學教育中使用,以支持非專業醫生,並在有限的醫學資源中提供診斷。增強人類能力而不是取代人類的能力,在關於醫學中的AI的更廣泛討論中的觀點通常會超過任何一個單獨的人。

持續的障礙:偏見和透明度

對AI對AI的潛在的熱情通過不良的挑戰而言,平衡了Aii的熱情。確定的關鍵問題是對於許多商業AI模型所使用的培訓數據缺乏透明度。這種不透明度使得很難評估潛在的偏見或確定模型的表現是否可以在不同的患者人群中推廣。

研究人員指出,透明度對於理解模型的知識和局限性至關重要。使用概率工具進行質量評估,其中76%的納入研究具有高偏見的高風險,通常是由於使用小型測試數據集的評估或對影響外部驗證評估的AI培訓數據不足的評估,或者不足AI

大阪的研究隨著建立專業醫學AI的努力繼續進行,例如Bioptimus的H-Optimus-0病理學模型,例如2024年7月發布。薈萃分析提供了必要的基準,提供了必要的基準,評估了這些一般診斷能力水平與這些工具相比,該工具與人類的練習範圍相比。通過更複雜的臨床情況和更清晰的AI過程進行驗證的持續要求:“進一步的研究,例如在更複雜的臨床情況下進行評估,使用實際醫療記錄的績效評估,提高AI決策的透明度以及在多元化患者群體中的透明度,需要驗證AI的能力。”

。 ”

。”

。 ”

Categories: IT Info