W 2016 r. Pioneer Geoffrey Hinton dokonał odważnej prognozy , deklarując, że „ludzie powinni teraz przestać trenować radiologów”. Był to przełomowy moment, który wydawał się zwiastować koniec specjalności medycznej. Jednak prawie dekadę później rzeczywistość na ziemi opowiada inną historię-przynajmniej jak dotąd.

Zapotrzebowanie na ludzkie radiology kwitnie. W 2025 r. Programy pobytu oferowały rekordową liczbę pozycji i Średnie pensje wzrosły o prawie 50% od 2015 r. miał eliminować bardziej niezbędne niż kiedykolwiek, z wskaźnikami pustostanów w najwyższych poziomach.

ten paradoks ujawnia crutalia, a także technologia. Podczas gdy modele AI od gigantów, takich jak Microsoft, mogą osiągnąć nadludzką dokładność w sterylnych warunkach laboratoryjnych, mają trudności z poruszaniem się po złożoności faktycznej praktyki klinicznej. Ścieżka od algorytmu do adopcji jest utwardzona praktycznymi, legalnymi i etycznymi przeszkodami.

od porównań do przyłapania: sprawdzenie rzeczywistości AI

Różnica między wydajnością AI w kontrolowanych testach testowych a jego skutecznością w prawdziwym świecie jest pierwszą poważną przeszkodą. Modele są często szkolone na wysoce wyselekcjonowanych, jednoznacznych obrazach, które wypacza ich wydajność w kierunku najłatwiejszych przypadków .

często rozmnażają się z podmiotami chorobowymi. Zmiany sprzętu do obrazowania-problem znany jako awaria poza dystrybucją.

Ta kruchość jest dobrze udokumentowana. Dokładność AI może spaść nawet o 20 punktów procentowych po testowaniu danych z nowego szpitala.

Sam proces sprawdzania poprawności jest często wąski; a 2024 stwierdzono, że 38% recenzji były testowane na danych z wyścigów z deski instytucja . Ten brak realnego kontekstu może prowadzić do absurdalnych błędów, takiego jak jeden model wielokrotnie błędnie identyfikujący się zszywki chirurgiczne jako krwotoki mózgu.

To nie jest nowy problem. W latach 90. wczesne systemy diagnozy komputerowej (CAD) dla mammografii zostały powszechnie przyjęte Po otrzymaniu zatwierdzenia FDA w 1998 r. I Medica Były one używane w prawie trzech czwartych wszystkich pokazów. W praktyce jednak spektakularnie zawiodły. A badanie przełomowe stwierdzono, że kliniki CAD-asysteed clinors przeprowadziły o 20% więcej biopsji bez żadnego raka.

Kluczowy rozum dla tej porażki, gdy ten porażka była bandyta. odroczyłem za maszynę za dużo. Badanie kliniczne z 2004 r. Wykazało, że po prowadzeniu przez CAD specjaliści zidentyfikowali zaledwie połowę nowotworów nowotworowych, podczas gdy ich nieoczerpani rówieśnicy złapali 68%. Doświadczenie doprowadziło Medicare do wycofania dodatkowego zwrotu kosztów CAD w 2018 r., Historycznej lekcji, która zbliża się do dzisiejszej bardziej zaawansowanej AI.

Niedawna metaanaliza z Osaka Metropolitan University potwierdza, że ​​ta luka w wydajności trwa. Po przejrzeniu 83 badań naukowcy stwierdzili, że chociaż generatywne AI jest na równi z niespecjalistami, pozostaje 15,8% za ekspertami od ludzi.

Jak zauważył jeden z lekarzy w badaniu: „Badania te pokazują, że możliwości diagnostyczne generatywnego AI są porównywalne z lekarzami niebędącymi specjalistami”. Badanie ostrzegło również, że 76% analizowanych artykułów miało wysokie ryzyko stronniczości, często z powodu nieprzejrzystych danych treningowych.

ludzka zapora ogniowa: regulacja, odpowiedzialność oraz granice autonomii

nawet jeśli AI mogłaby osiągnąć doskonałą dokładność, będzie to skierowane do ściany regulacyjnych i prawnych. FDA utrzymuje znacznie wyższy standard zatwierdzenia dla w pełni autonomicznej AI w porównaniu do

spełnienie tego standardu jest niezwykle trudne. Na przykład, IDX-DR, jedno z niewielu autonomicznych narzędzi wyczyszczonych przez FDA, jest wyposażony w ścisłe poręcze: można go stosować tylko u dorosłych o określonej jakości obrazu i bez wcześniejszej diagnozy choroby.

Jeśli jakikolwiek stan jest nieoptymalny, oprogramowanie musi przerywać i odwołać sprawę do ludzkiego profesjonalisty.

Ubezpieczenie w stosunku dolpraktonice jest kolejną poważną przeszkodą. Ubezpieczyciele, ostrożni w katastrofalnych wypłatach z wadliwego algorytmu, coraz częściej piszą „absolutne wykluczenie ai” clauses do ich politycznych . Zmusza szpitale do polegania na licencjonowanym lekarzu do wzięcia najwyższej odpowiedzialności za diagnozę, utrzymując człowieka mocno. Jako jeden z analityków z Sage Research Notes, modele zaufania i refundacji nadal ograniczają autonomiczne przyjęcie.

Więcej niż tylko piksele: paradoks popytu napędzanego przez AI

Trzecim krytycznym czynnikiem jest prawdziwy zakres pracy radiologa. Interpretacja obrazu jest tylko jedną częścią ich roli. Badanie z 2012 r. Wykazało, że diagnostyka nie wyeliminowała tylko 36% czasu , wraz z resztą dedykowaną na konsultacje pacjentów, procedurę i nauczanie i nauczanie. Zamiast tego może wywołać Jevons Paradox , gdzie dokonanie usługi Turnaround Service Turnaround i szybciej zwiększa wymaganie. AI może sprawić, że radiologowie bardziej niż kiedykolwiek.

Ta dynamika jest już omawiana w społeczności medycznej, z niektórymi radiologami Przeglądanie sztucznej inteligencji jako „podwójnie obosiecznego miecza” Może to złagodzić lub zaostrzyć wypalenie zawodowe w zależności od jego wdrożenia.

Podstawowa przeszkoda: Prywatność danych i zaufanie publiczne

Podniesienie wszystkich tych wyzwań jest niezbadającą etyczną dylematą danych pacjentów. Szkolenie skutecznej sztucznej inteligencji medycznej wymaga ogromnych zestawów danych, co budzi głębokie obawy dotyczące prywatności.

Niedawne kontrowersje dotyczące modelu „Foresight” NHS w Wielkiej Brytanii, przeszkolonymi na podstawie 57 milionów zapisów pacjentów, jest przykładem.

Eksperci i prywatność opowiadają się za Warnem, które nawet „de-identyfikowane dane” przenoszą trwałe ryzyko ponownego zidentyfikowania. Jak argumentował jeden zwolennik prywatności z Medcontential: „Ta AI tylko dla Covid prawie na pewno ma w nim osadzone dane pacjenta, których nie można wypuszczać poza laboratorium.”

To sentyment jest powtarzane przez badaczy, którzy podkreślają, że „ludzie chcą kontrolować swoje dane i chcą wiedzieć, dokąd zmierza.”

budowanie publicznego zaufania jest tak krytyczne, jak demonstracja klinicznej wydajności. Jak stwierdził Vin Diwakar z NHS Anglii: „AI może zmienić sposób, w jaki zapobiegamy chorobom i leczeniu, zwłaszcza gdy przeszkoleni w dużych zestawach danych,„ ale ścieżka do korzystania z tych danych jest pełna etycznych obowiązków.

Pomimo przeszkód, technologia ta kontynuuje niezdolny postęp. Dyrektor generalny Microsoft AI, Mustafa Suleyman, okrzyknął system Mai-DXO swojej firmy, ponieważ „Microsoft zrobił„ prawdziwy krok w kierunku superinteligencji medycznej. ” Jak ujął to profesor Savannah Partridge z University of Washington: „Nie używasz [AI], czy też nie, ale jak go używasz? W jaki sposób używasz go odpowiednio i bezpiecznie?”

Przypadek radiologii pokazuje, że w przypadku złożonych, wysokich stakań zawodowych wynika, że ​​rola Ai rozwija się w potężnym, niepokojącym asystencie.

Categories: IT Info