Ang mga modelo ng Generative AI ay nagsasara ng agwat sa mga di-espesyalista na mga doktor pagdating sa diagnosis ng medikal, ngunit nananatili silang hindi gaanong tumpak kaysa sa mga eksperto ng tao, ayon sa isang malaking-scale na pagsusuri mula sa . Ang pananaliksik, na pinamunuan ni Dr. Hirotaka Takita at Associate Propesor Daiju Ueda, na sistematikong sinuri ang 83 na pag-aaral upang ihambing ang pagganap ng AI laban sa mga manggagamot, na nagbubunyag ng isang average na AI diagnostic na katumpakan ng 52.1%. Target=”_ Blank”> Kalikasan Noong Marso 22, ang meta-analysis ay nag-ayos sa higit sa 18,000 mga papel na nai-publish mula noong Hunyo 2018. Sinuri nito ang isang hanay ng AI, kasama ang mabibigat na pinag-aralan na mga modelo tulad ng GPT-4 pati na rin ang iba na partikular na nabanggit tulad ng llama3 70b, ang Gemini 1.5 Pro, at ang claude 3 sonnet. sa mga di-dalubhasang manggagamot, na may lamang isang 0.6% na pagkakaiba na pabor sa mga tao. Gayunpaman, ang mga espesyalista sa medikal ay nagpapanatili ng isang malinaw na gilid, na nagpapalabas ng mga modelo ng AI sa pamamagitan ng isang malaking 15.8% margin sa kawastuhan. Ang pagiging kumplikado
Ang mga modelo ng AI ay nagpakita ng variable na tagumpay sa iba’t ibang mga disiplinang medikal. Nagpakita sila ng partikular na lakas sa dermatology, isang patlang kung saan ang pagkilala sa visual na pattern-isang forte ng kasalukuyang AI-ay gumaganap ng isang malaking bahagi. Gayunpaman, binabalaan ng mga mananaliksik na hinihiling din ng dermatology ang kumplikadong pangangatuwiran na lampas sa pagtutugma ng visual. Kadalasan, ipinahiwatig ng pagsusuri na ang AI ay may posibilidad na humina kapag nakikitungo sa mga kumplikadong kaso na nangangailangan ng pagbibigay kahulugan sa malawak, detalyadong impormasyon ng pasyente, isang lugar kung saan ang mga espesyalista ay madalas na humuhuli sa pamamagitan ng karanasan at nuanced klinikal na pangangatuwiran. Ang Osaka Metropolitan University, sa isang pahayag ng Abril 18, 2025, na sinipi ni Dr. Takita sa mga posibilidad:”Ang pananaliksik na ito ay nagpapakita na ang mga generative na kakayahan ng diagnostic ng AI ay maihahambing sa mga di-dalubhasang mga doktor. Maaari itong magamit sa medikal na edukasyon upang suportahan ang mga di-espesyalista na mga doktor at tumulong sa mga diagnostic sa mga lugar na may limitadong mga mapagkukunang medikal.”Ang pagdaragdag ng mga kakayahan ng tao sa halip na ibigay ang mga ito, isang view na sumigaw sa mas malawak na mga talakayan tungkol sa AI sa gamot kung saan ang pinagsamang pagganap ng tao-AI ay madalas na lumampas sa alinman sa nag-iisa. Ang isang pangunahing isyu na natukoy ay ang kakulangan ng transparency tungkol sa data ng pagsasanay na ginamit para sa maraming mga komersyal na modelo ng AI. Ang opacity na ito ay nagpapahirap upang masuri ang mga potensyal na biases o matukoy kung ang pagganap ng isang modelo ay maaaring pangkalahatan sa iba’t ibang mga populasyon ng pasyente. Ang pagtatasa ng kalidad gamit ang tool ng probast na na-rate ng 76% ng mga kasama na pag-aaral bilang pagkakaroon ng isang mataas na peligro ng bias, na madalas na nagmumula sa mga pagsusuri gamit ang mga maliit na datasets ng pagsubok o hindi sapat na detalye tungkol sa data ng pagsasanay ng AI na nakakaapekto sa mga panlabas na pagtatasa ng pagpapatunay. Pasulong para sa medikal na ai Binigyang diin ang patuloy na kinakailangan para sa pagpapatunay sa pamamagitan ng mas masalimuot na mga klinikal na senaryo at mas malinaw na mga proseso ng AI:”Ang karagdagang pananaliksik, tulad ng mga pagsusuri sa mas kumplikadong mga sitwasyon sa klinikal, mga pagsusuri sa pagganap gamit ang aktwal na mga talaang medikal, pagpapabuti ng transparency ng paggawa ng desisyon ng AI, at pag-verify sa magkakaibang mga grupo ng pasyente, kinakailangan upang mapatunayan ang mga kakayahan ng AI.”