Vuonna 2016 AI-edelläkävijä Geoffrey Hinton tekivät rohkean ennusteen , julistaen, että “ihmisten tulisi lopettaa radiologien koulutus nyt.”Se oli vesistöalue, joka näytti julistavan lääketieteellisen erikoisuuden lopun. Melkein kymmenen vuotta myöhemmin todellisuus kentällä kertoo erilaisen tarinan-ainakin toistaiseksi.

Ihmisen radiologien kysyntä kukoistaa. Vuonna 2025 residenssiohjelmat tarjosivat ennätyksellisen määrän tehtäviä ja Keskimääräiset palkat ovat nousseet Lähes 50% , koska 2015 . piti eliminoida on tärkeämpää kuin koskaan, ja avoimia työpaikkoja kaikkien aikojen korkeimpiin. Vaikka Microsoftin kaltaisten jättiläisten AI-mallit voivat saavuttaa ylimääräisen tarkkuuden steriilissä laboratorio-olosuhteissa, he kamppailevat navigoidakseen todellisen kliinisen käytännön monimutkaisuudessa. Polku algoritmista adoptioon on päällystetty käytännöllisillä, oikeudellisilla ja eettisillä esteillä.

vertailuarvoista sängyn puoleen: AI: n todellisuustarkastus

AI: n suorituskyvyn kuilu hallittujen vertailuarvojen ja sen tehokkuuden välillä reaalimaailmassa. Malleja koulutetaan usein erittäin kuratoituihin, yksiselitteisiin kuviin, jotka vinoaan suorituskykyä kohti helpointa tapausta. kuvantamislaitteiden skannaukset tai vaihtelut-ongelma, joka tunnetaan nimellä jakelun ulkopuolinen vika.

Tämä hauraus on hyvin dokumentoitu. AI: n tarkkuus voi pudota jopa 20 prosenttiyksikköä, kun niitä testataan uuden sairaalan tiedoista.

Itse validointiprosessi on usein kapea; A 2024-analyysi 38%: n arvioitujen malleja. Laitos . Tämä reaalimaailman puuttuminen voi johtaa absurdoihin virheisiin, kuten yksi malli, joka toistuvasti tunnistaisi kirurgiset niittejä, aivojen verenvuotona.

Tämä ei ole uusi ongelma. 1990-luvulla varhainen tietokoneavugnoosi (CAD) järjestelmät mammogrammeille, jotka olivat saaneet laajasti.

Vuoteen 2010 mennessä niitä käytettiin melkein kolmessa neljäsosassa kaikista näytöksistä. Käytännössä he kuitenkin epäonnistuivat näyttävästi. A maamerkki havaitsi, että CAD-avustetut klinikat suorittivat 20% lisää biopsioita, jotka ovat käyttämättä enemmän: paljon koneelle. Vuoden 2004 kliininen tutkimus paljasti, että CAD: n ohjaamana asiantuntijat tunnistivat tuskin puolet pahanlaatuisista kasvaimista, kun taas heidän avunsa ikätoverit saivat 68%. Kokemus sai Medicaren peruuttamaan CAD: n ylimääräiset korvaukset vuonna 2018, historiallinen oppitunti, joka kantaa nykypäivän edistyneempää AI: ta.

Osakan metropolitan yliopistosta äskettäinen metaanalyysi vahvistaa tämän suorituskyvyn kuilun jatkumisen. 83 tutkimuksen tarkistamisen jälkeen tutkijat havaitsivat, että vaikka generatiivinen AI on samanlainen kuin ei-asiantuntijoiden kanssa, se viivästyy 15,8% ihmisen asiantuntijoiden takana.

Yksi tutkimukseen osallistuva lääkäri totesi:”Tämä tutkimus osoittaa, että generatiiviset AI: n diagnostiset kyvyt ovat verrattavissa ei-erikoistuneisiin lääkäreihin”. Tutkimuksessa varoitettiin myös, että 76 prosentilla sen analysoiduista papereista oli suuri puolueellisuusriski, usein läpinäkymättömien koulutustietojen vuoksi. FDA ylläpitää paljon korkeampaa hyväksyntästandardia täysin autonomiselle AI: lle verrattuna Apuvälineet, jotka pitävät ihmisen loopissa . Tämän tarkoituksena on estää yhtä ohjelmistovirhettä vahingoittamasta tuhansia potilaita kerralla.

Tämän standardin täyttäminen on uskomattoman vaikeaa. Esimerkiksi IDX-DR, yksi harvoista FDA: n tyhjentämistä autonomisista työkaluista, sisältää tiukat suojakaiteet: Sitä voidaan käyttää vain aikuisilla, joilla on erityinen kuvanlaatu ja taudin aikaisempaa diagnoosia. Vakuuttajat, jotka ovat varovaisia ​​katastrofaalisista maksuista vialliselta algoritmilta, kirjoittavat yhä enemmän ‘PNEILLINEN AI-KLAPUSS pakottaa sairaalat luottamaan siihen, että lisensoitu lääkäri ottaa lopullisen vastuun diagnoosista pitäen ihmisen tiukasti vastuussa. Yksi analyytikko merkitsee tutkimuksen muistiinpanoja, luottamus-ja korvausmallit rajoittavat edelleen itsenäistä käyttöönottoa. Kuvan tulkinta on vain yksi osa heidän rooliaan. Vuoden 2012 tutkimuksessa todettiin, että Diagnostiikan osuus oli vain 36% ajastaan ​​, ja lepotilassa omistettu potilaan neuvotteluille, menettelyllinen valvonta ja opetus. Sen sijaan se voi laukaista Jevons Paradox , jossa palvelun tekeminen halvemmaksi ja nopeammaksi lisää dramaattisesti. AI voisi tehdä radiologista vilkkaampia kuin koskaan.

Tätä dynamiikkaa keskustellaan jo lääketieteellisessä yhteisössä, joidenkin radiologien AI: n katseleminen’kaksiteräisenä miekkaksi’, joka voi joko lievittää tai pahentaa sen toteutusta riippuen.

perustanopeus: Tietojen tietosuoja ja julkinen luottamus

kaikkien näiden haasteiden perustana oleva eettinen dilemma. Tehokkaan lääketieteellisen AI: n kouluttaminen vaatii laajoja tietojoukkoja, jotka aiheuttavat syvällisiä yksityisyyden suojaa koskevia huolenaiheita.

äskettäinen kiista Ison-Britannian NHS: n “ennakointi”-mallissa, joka on koulutettu 57 miljoonalla potilasrekisterillä, on esimerkki. Kuten yksi MedConfidentialin yksityisyyden suojaava puolustaja väitti: “Tässä vain COVID-AI: lla on melkein varmasti potilastiedot, joita ei voida päästää laboratoriosta.”

Tätä mielipidettä toistaa tutkijat, jotka korostavat, että”ihmiset yleensä haluavat hallita tietojaan ja he haluavat tietää, mihin se menee.”Kuten NHS Englannin Vin Diwakar totesi, “AI: llä on potentiaalia muuttaa sitä, miten estämme ja hoitamme sairauksia, etenkin kun sitä koulutetaan suurille tietojoukkoille”, mutta tiedon käyttämiseen polku on täynnä eettisiä vastuita. Microsoft AI: n toimitusjohtaja Mustafa Suleyman tervehti yrityksensä MAI-DXO-järjestelmää nimellä “Microsoft on ottanut” aidon askeleen kohti lääketieteellistä supertelligenssiä “. Kuten Washingtonin yliopiston professori Savannah Partridge sanoi osuvasti:”Ei ole, että käytät [ai] vai et, mutta miten käytät sitä? Kuinka käytät sitä asianmukaisesti ja turvallisesti?”

Categories: IT Info