Generatywne modele AI zamykają lukę z lekarzami nie specjalistycznymi, jeśli chodzi o diagnozę medyczną, ale pozostają one znacznie mniej dokładne niż ludzkie eksperci, zgodnie z analizą na dużą skalę z . Badania, prowadzone przez dr Hirotaka Takity i profesora nadzwyczajnego Daiju Ueda, systematycznie dokonały przeglądu 83 badań w celu porównania wydajności AI z lekarzami, ujawniając średnią dokładność diagnostyczną AI w wysokości 52,1%.

Opublikowane w natura 22 marca metaanaliza przeżyła ponad 18 000 artykułów opublikowanych od czerwca 2018 r. Oceniono zakres sztucznej inteligencji, w tym silnie badane modele, takie jak GPT-4, a także inne wspomniane, jak LLAMA3 70B, GEMINI 1.5 Pro, i Claude 3 sonn. Podobne do lekarzy nie-ekspertów, z jedynie 0,6% różnicą faworyzującą ludzi. Jednak specjaliści medyczni utrzymywali wyraźną przewagę, przewyższając modele AI o znaczną dokładność 15,8%.

w różny sposób przez field i kompleksy

Modele AI wykazały zmienny sukces w różnych dyscyplinach medycznych. Wykazali szczególną siłę w dermatologii, dziedzinie, w którym wizualne rozpoznawanie wzorców-mocna AI-odgrywa dużą rolę. Jednak naukowcy ostrzegają, że dermatologia wymaga również złożonego rozumowania poza dopasowaniem wzrokowym.

Odwrotnie wyniki sugerujące, że biegłość AI w urologii została złagodzona przez fakt, że pochodzą przede wszystkim z jednego dużego badania, ograniczając, w jaki sposób można zastosować te wyniki. Zasadniczo analiza wykazała, że ​​AI ma tendencję do wahania się z złożonymi przypadkami, które wymagają interpretacji obszernych, szczegółowych informacji o pacjencie, obszaru, w którym specjaliści często osiągają doświadczenie poprzez doświadczenie i dopracowane rozumowanie kliniczne.

AI jako asystent, a nie zastępca

pomimo dokładności w porównaniu do specjalistów, badanie potencjalne role w AI w szkole zdrowotnej w szkole Osaka Metropolitan University, w oświadczeniu z 18 kwietnia 2025 r., Zacytował dr Takity o możliwościach: „Badania te pokazują, że możliwości diagnostyczne generatywnego AI są porównywalne z lekarzami niespecialistycznymi. Można to wykorzystać w edukacji medycznej w celu wspierania osób niespecjalistycznych lekarzy i pomocy w diagnostyce w obszarach z ograniczonymi zasobami medycznymi. Narzędzie, być może rozszerzanie ludzkich zdolności, a nie ich zastępowanie, pogląd echem w szerszych dyskusjach na temat sztucznej inteligencji w medycynie, w której połączona wydajność człowieka-AI często przewyższa albo sam.

trwałe przeszkody: uprzedzenie i przejrzystość

Entuzjazm dla potencjału AI jest zbalansowany przez znaczące wyzwania w analizie. Kluczową kwestią zidentyfikowaną jest brak przejrzystości dotyczących danych szkoleniowych wykorzystywanych w wielu komercyjnych modelach AI. Ta krycie utrudnia ocenę potencjalnych uprzedzeń lub ustalenie, czy wydajność modelu można uogólnić w różnych populacjach pacjentów.

Naukowcy zauważyli, że przejrzystość jest niezbędna do zrozumienia wiedzy i ograniczeń modelu. Ocena jakości przy użyciu narzędzia Probast oceniło 76% uwzględnionych badań jako posiadające wysokie ryzyko stronniczości, często wynikające z ocen przy użyciu małych zestawów danych testowych lub niewystarczających szczegółów na temat danych szkoleniowych AI wpływających na zewnętrzne oceny walidacji.

Niektórzy eksperci obawiają się, że AI trenowane w ogólnej dokumentacji zdrowotnej mogą być przypadkowo nauczyć się i reprezentować historyczne ludzkie błędy diagnostyczne obecne w danych. Przekaż dla AI medycznej

Badanie Osaka przybywa jako wysiłki w celu zbudowania specjalistycznej sztucznej inteligencji medycznej kontynuowania, przykłady narzędzi, takich jak modelu patologii H-optimus-0, wydane w lipcu 2024 r. Metaanaliza stanowi niezbędny punkt odniesienia, oceniając ogólny poziom zdolności diagnostycznych te narzędzia te narzędzia te narzędzia. podkreślił ciągły wymóg walidacji poprzez bardziej skomplikowane scenariusze kliniczne i wyraźniejsze procesy AI: „Dalsze badania, takie jak oceny w bardziej złożonych scenariuszach klinicznych, oceny wydajności przy użyciu rzeczywistej dokumentacji medycznej, poprawa przejrzystości podejmowania decyzji AI i weryfikacja w różnych grupach pacjentów, są potrzebne do zweryfikowania zdolności AI.”

Categories: IT Info