I 2016, AI Pioneer Geoffrey Hinton gjorde en dristig prediksjon , og erklærte at”folk skulle slutte å trene radiologer nå.”Det var et vannskille øyeblikk som virket for å innvarme slutten på en medisinsk spesialitet. Likevel nesten et tiår senere forteller virkeligheten på bakken en påfallende annen historie.

Etterspørselen etter menneskelige radiologer blomstrer. I 2025 tilbød bostedsprogrammer et rekordstort antall stillinger, og Gjennomsnittlig lønn har steget med nesten 50% skews deres ytelse mot de letteste tilfellene . skanninger, eller variasjoner i avbildningsutstyr-et problem kjent som utfordelingssvikt.

Denne sprøheten er godt dokumentert. En AIs nøyaktighet kan falle med så mye som 20 prosentpoeng når den testes på data fra et nytt sykehus.

Valideringsprosessen i seg selv er ofte smal; . Denne mangelen på kontekst i den virkelige verden kan føre til absurde feil, for eksempel en modell gjentatte ganger feilidentifisering av kirurgiske stifter som hjerneblødninger.

Dette er ikke et nytt problem. På 1990-tallet, Tidlig datastyrte diagnose/por) for å motta 2008.

I 2010 ble de brukt i nesten tre fjerdedeler av alle visninger. I praksis mislyktes de imidlertid spektakulært. A Landmark Study Fant at CAD-Assisted Clinics gjennomførte 20% mer biops uten å fjerne. Skjevhet: Leger utsatte for mye til maskinen. En klinisk studie fra 2004 avslørte at spesialister som ble ledet av CAD, knapt halvparten av malignitetene, mens deres ikke-hjelpede jevnaldrende fanget 68%. Opplevelsen førte til at Medicare trakk ekstra refusjon for CAD i 2018, en historisk leksjon som vevs over dagens mer avanserte AI.

En fersk metaanalyse fra Osaka Metropolitan University bekrefter at dette ytelsesgapet vedvarer. Etter å ha gjennomgått 83 studier, fant forskere at mens generativ AI er på nivå med ikke-spesialister, henger den 15,8% bak menneskelige eksperter.

Som en lege involvert i studien bemerket,”Denne forskningen viser at generative AIs diagnostiske evner er sammenlignbare med ikke-spesialistiske leger.”Studien advarte også om at 76% av papirene den analyserte hadde en høy risiko for skjevhet, ofte på grunn av ugjennomsiktig treningsdata.

Human Firewall: Regulation, Liability og grensene for autonomi

Selv om AI kan oppnå perfekt nøyaktighet, ville den anse en vegg av regulering og regulerende og regulatorisk Barers. FDA opprettholder en mye høyere godkjenningsstandard for fullt autonom AI sammenlignet med hjelpende verktøy som du kan holde et human i å Dette for å forhindre at en enkelt programvarefeil skader tusenvis av pasienter samtidig.

Å møte denne standarden er utrolig vanskelig. For eksempel kommer IDX-DR, et av de få autonome verktøyene som er ryddet av FDA, med strenge rekkverk: det kan bare brukes på voksne med spesifikk bildekvalitet og ingen tidligere diagnose av sykdommen.

Hvis noen tilstand er suboptimal, må programvaren avstå og henvise saken til en menneskelig profesjonell.

Malpractice er en annen vesentlig sak. Forsikringsselskaper, på vakt mot katastrofale utbetalinger fra en feil algoritme, skriver i økende grad

Mer enn bare piksler: Paradokset for AI-drevet etterspørsel

En tredje kritisk faktor er det sanne omfanget av en radiologjobb. Bildetolkning er bare en del av deres rolle. En studie fra 2012 fant at jevons paradox , der du gjør en 60-en som er en 60-å få en 60-en som er billig i. Volum, AI kan gjøre radiologer travlere enn noen gang.

Denne dynamikken blir allerede diskutert i det medisinske samfunnet, med noen radiologer Vise AI som et ‘tosidig sverd’ som enten kan lindre eller forverre utbrenthet avhengig av implementeringen.

Fundethindringen: Data personvern og offentlig tillit

Underpinning av alle disse utfordringene er den rindelvet etht ethical. Opplæringseffektiv medisinsk AI krever store datasett, noe som reiser dyptgripende bekymringer for personvern.

Den nylige kontroversen om Storbritannias NHS ‘Foresight’ modell, trent på 57 millioner pasientjournaler, er et tilfelle.

eksperter og personlige advokater advarer om at til og med”de-identifiserte”bærer en ferdighet. Som en personvernforkjemper fra MedConfidential hevdet:”Denne kun AI-AI har nesten helt sikkert pasientdata innebygd i den, som ikke kan slippes ut av laboratoriet.”

Dette følelsen gjenspeiles av forskere som understreker at”folk vanligvis ønsker å beholde kontrollen over dataene sine og at de vil vite hvor det er.”Som NHS Englands Vin Diwakar uttalte,”AI har potensial til å endre hvordan vi forhindrer og behandler sykdommer, spesielt når de er trent på store datasett,”men veien til å bruke disse dataene er full av etiske ansvar.

Til tross for hekkene, fortsetter teknologien dets nådeløse fremskritt. Microsoft AIs administrerende direktør, Mustafa Suleyman, hyllet selskapets MAI-DXO-system som”Microsoft har tatt”et ekte skritt mot medisinsk superintelligens.”

I mellomtiden har europeiske forskere utviklet Delph-2m, en AI som kan spåt risiko for over 1000 sykdommer som er brukt. Som professor Savannah Partridge ved University of Washington passende uttrykte det,”Det bruker du ikke [AI], eller gjør du det ikke, men hvordan bruker du det? Hvordan bruker du det på riktig og trygt?”

saken til å utføre en rolle som en rolle som en kraftig, som er i samsvar med en kraftig, og en rolle som en kraftig, en kraftig.

Categories: IT Info