Generatywne modele AI zamykają lukę z lekarzami nie specjalistycznymi, jeśli chodzi o diagnozę medyczną, ale pozostają one znacznie mniej dokładne niż ludzkie eksperci, zgodnie z analizą na dużą skalę z . Badania, prowadzone przez dr Hirotaka Takity i profesora nadzwyczajnego Daiju Ueda, systematycznie dokonały przeglądu 83 badań w celu porównania wydajności AI z lekarzami, ujawniając średnią dokładność diagnostyczną AI w wysokości 52,1%.
Opublikowane w
Modele AI wykazały zmienny sukces w różnych dyscyplinach medycznych. Wykazali szczególną siłę w dermatologii, dziedzinie, w którym wizualne rozpoznawanie wzorców-mocna AI-odgrywa dużą rolę. Jednak naukowcy ostrzegają, że dermatologia wymaga również złożonego rozumowania poza dopasowaniem wzrokowym. Odwrotnie wyniki sugerujące, że biegłość AI w urologii została złagodzona przez fakt, że pochodzą przede wszystkim z jednego dużego badania, ograniczając, w jaki sposób można zastosować te wyniki. Zasadniczo analiza wykazała, że AI ma tendencję do wahania się z złożonymi przypadkami, które wymagają interpretacji obszernych, szczegółowych informacji o pacjencie, obszaru, w którym specjaliści często osiągają doświadczenie poprzez doświadczenie i dopracowane rozumowanie kliniczne. pomimo dokładności w porównaniu do specjalistów, badanie potencjalne role w AI w szkole zdrowotnej w szkole Osaka Metropolitan University, w oświadczeniu z 18 kwietnia 2025 r., Zacytował dr Takity o możliwościach: „Badania te pokazują, że możliwości diagnostyczne generatywnego AI są porównywalne z lekarzami niespecialistycznymi. Można to wykorzystać w edukacji medycznej w celu wspierania osób niespecjalistycznych lekarzy i pomocy w diagnostyce w obszarach z ograniczonymi zasobami medycznymi. Narzędzie, być może rozszerzanie ludzkich zdolności, a nie ich zastępowanie, pogląd echem w szerszych dyskusjach na temat sztucznej inteligencji w medycynie, w której połączona wydajność człowieka-AI często przewyższa albo sam. Entuzjazm dla potencjału AI jest zbalansowany przez znaczące wyzwania w analizie. Kluczową kwestią zidentyfikowaną jest brak przejrzystości dotyczących danych szkoleniowych wykorzystywanych w wielu komercyjnych modelach AI. Ta krycie utrudnia ocenę potencjalnych uprzedzeń lub ustalenie, czy wydajność modelu można uogólnić w różnych populacjach pacjentów. Naukowcy zauważyli, że przejrzystość jest niezbędna do zrozumienia wiedzy i ograniczeń modelu. Ocena jakości przy użyciu narzędzia Probast oceniło 76% uwzględnionych badań jako posiadające wysokie ryzyko stronniczości, często wynikające z ocen przy użyciu małych zestawów danych testowych lub niewystarczających szczegółów na temat danych szkoleniowych AI wpływających na zewnętrzne oceny walidacji. Niektórzy eksperci obawiają się, że AI trenowane w ogólnej dokumentacji zdrowotnej mogą być przypadkowo nauczyć się i reprezentować historyczne ludzkie błędy diagnostyczne obecne w danych. Przekaż dla AI medycznej
Badanie Osaka przybywa jako wysiłki w celu zbudowania specjalistycznej sztucznej inteligencji medycznej kontynuowania, przykłady narzędzi, takich jak modelu patologii H-optimus-0, wydane w lipcu 2024 r. Metaanaliza stanowi niezbędny punkt odniesienia, oceniając ogólny poziom zdolności diagnostycznych te narzędzia te narzędzia te narzędzia. podkreślił ciągły wymóg walidacji poprzez bardziej skomplikowane scenariusze kliniczne i wyraźniejsze procesy AI: „Dalsze badania, takie jak oceny w bardziej złożonych scenariuszach klinicznych, oceny wydajności przy użyciu rzeczywistej dokumentacji medycznej, poprawa przejrzystości podejmowania decyzji AI i weryfikacja w różnych grupach pacjentów, są potrzebne do zweryfikowania zdolności AI.” AI jako asystent, a nie zastępca
trwałe przeszkody: uprzedzenie i przejrzystość