ในปี 2559 ผู้บุกเบิก Geoffrey Hinton ทำนายความกล้าหาญ ประกาศว่า”ผู้คนควรหยุดการฝึกอบรมนักรังสีวิทยา”มันเป็นช่วงเวลาที่มีลุ่มน้ำที่ดูเหมือนจะประกาศจุดจบของการแพทย์พิเศษ แต่เกือบหนึ่งทศวรรษต่อมาความจริงบนพื้นดินบอกเล่าเรื่องราวที่แตกต่าง-อย่างน้อยจนถึงตอนนี้

ความต้องการนักรังสีวิทยาของมนุษย์กำลังเฟื่องฟู ในปี 2025 โปรแกรมการอยู่อาศัยเสนอจำนวนบันทึกจำนวนและ เงินเดือนเฉลี่ยเพิ่มสูงขึ้น เกือบ 50%

ความเปราะบางนี้มีการบันทึกไว้อย่างดี ความแม่นยำของ AI สามารถลดลงได้มากถึง 20 คะแนนเมื่อทดสอบข้อมูลจากโรงพยาบาลใหม่

กระบวนการตรวจสอบความถูกต้องมักจะแคบลง; การวินิจฉัยคอมพิวเตอร์ช่วยในการตรวจหา mammograms 2010 พวกเขาถูกใช้ในเกือบสามในสี่ของการคัดกรองทั้งหมด อย่างไรก็ตามในทางปฏิบัติพวกเขาล้มเหลวอย่างงดงาม A การศึกษาแลนด์มาร์ค รอการตัดบัญชีมากเกินไปกับเครื่อง การทดลองทางคลินิกในปี 2547 เปิดเผยว่าเมื่อ CAD ได้รับคำแนะนำผู้เชี่ยวชาญระบุว่าครึ่งหนึ่งของมะเร็งแทบจะไม่ได้ในขณะที่เพื่อนร่วมงานของพวกเขาจับ 68% ประสบการณ์ดังกล่าวทำให้เมดิแคร์ถอนการชำระเงินคืนพิเศษสำหรับ CAD ในปี 2561 บทเรียนทางประวัติศาสตร์ที่ปรากฏใน AI ขั้นสูงของวันนี้

การวิเคราะห์อภิมานล่าสุดจากมหาวิทยาลัยโอซาก้าเมโทรโพลิแทนยืนยันว่าช่องว่างการแสดงนี้ยังคงอยู่ หลังจากตรวจสอบการศึกษา 83 ครั้งนักวิจัยพบว่าในขณะที่ AI Generative อยู่ในระดับเดียวกันกับผู้ที่ไม่ใช่ผู้เชี่ยวชาญ แต่ก็ล่าช้า 15.8% หลังผู้เชี่ยวชาญของมนุษย์

ในฐานะแพทย์คนหนึ่งที่เกี่ยวข้องกับการศึกษาที่ระบุไว้ว่า“ งานวิจัยนี้แสดงให้เห็นว่าความสามารถในการวินิจฉัยของ AI การศึกษายังเตือนว่า 76% ของเอกสารที่วิเคราะห์มีความเสี่ยงสูงต่ออคติบ่อยครั้งเนื่องจากข้อมูลการฝึกอบรมทึบแสง

ไฟร์วอลล์มนุษย์: กฎระเบียบความรับผิดและข้อ จำกัด ของความเป็นอิสระ

องค์การอาหารและยารักษามาตรฐานการอนุมัติที่สูงขึ้นมากสำหรับ AI อิสระอย่างเต็มที่เมื่อเทียบกับ

โดยไม่มีเส้นทางที่ชัดเจนผ่านทางกฎหมายและเขตการปกครองทางการเงินเหล่านี้บทบาทของ AI ยังคงให้ความช่วยเหลืออย่างมั่นคง ในฐานะนักวิเคราะห์คนหนึ่งจากหมายเหตุการวิจัยที่มีความหมายโมเดลความน่าเชื่อถือและการชำระเงินคืนยังคง จำกัด การยอมรับด้วยตนเอง

มากกว่าแค่พิกเซล: ความขัดแย้งของความต้องการ AI ที่ขับเคลื่อนด้วย

ปัจจัยสำคัญที่สามคือขอบเขตที่แท้จริงของงานนักรังสีวิทยา การตีความภาพเป็นเพียงส่วนหนึ่งของบทบาทของพวกเขา การศึกษาในปี 2555 พบว่า การวินิจฉัยคิดเป็นเพียง 36% ของเวลา แต่อาจทำให้เกิด Jevons Paradox ซึ่งการให้บริการที่ถูกกว่าและเร็วขึ้น AI สามารถทำให้นักรังสีวิทยายุ่งกว่าเดิม

ไดนามิกนี้ได้ถูกกล่าวถึงในชุมชนการแพทย์แล้วโดยมีนักรังสีวิทยาบางคน การดู AI เป็น’ดาบสองเท่า’ ที่สามารถบรรเทาหรือทำให้รุนแรงขึ้นได้ขึ้นอยู่กับการใช้งาน

อุปสรรคพื้นฐาน: ความเป็นส่วนตัวของข้อมูล การฝึกอบรม AI การแพทย์ที่มีประสิทธิภาพต้องใช้ชุดข้อมูลมากมายซึ่งทำให้เกิดความกังวลเกี่ยวกับความเป็นส่วนตัวอย่างลึกซึ้ง

การโต้เถียงเมื่อเร็ว ๆ นี้เกี่ยวกับแบบจำลอง NHS ‘Foresight’ ของสหราชอาณาจักรซึ่งได้รับการฝึกฝนเกี่ยวกับบันทึกผู้ป่วย 57 ล้านคน ในฐานะที่เป็นผู้สนับสนุนความเป็นส่วนตัวคนหนึ่งจาก Medconfidential แย้งว่า“ AI Covid-only นี้เกือบจะแน่นอนว่ามีข้อมูลผู้ป่วยที่ฝังอยู่ในนั้นซึ่งไม่สามารถปล่อยออกมาจากห้องแล็บได้”

ความรู้สึกนี้สะท้อนโดยนักวิจัยที่ย้ำว่า“ ผู้คนมักต้องการควบคุมข้อมูลของพวกเขา ดังที่ NHS England ของ Vin Diwakar กล่าวว่า“ AI มีศักยภาพที่จะเปลี่ยนวิธีที่เราป้องกันและรักษาโรคโดยเฉพาะอย่างยิ่งเมื่อได้รับการฝึกฝนในชุดข้อมูลขนาดใหญ่” แต่เส้นทางสู่การใช้ข้อมูลนั้นเต็มไปด้วยความรับผิดชอบทางจริยธรรม

แม้จะมีอุปสรรค Mustafa Suleyman ซีอีโอของ Microsoft AI ได้ยกย่องระบบ Mai-DXO ของ บริษัท ในฐานะ“ Microsoft ได้ก้าวไปสู่ขั้นตอนการแพทย์อย่างแท้จริง”

ในขณะเดียวกันนักวิจัยชาวยุโรปได้พัฒนา Delphi-2M ในฐานะศาสตราจารย์ Savannah Partridge แห่งมหาวิทยาลัยวอชิงตันกล่าวอย่างเหมาะสม“ คุณไม่ได้ใช้ [ai] หรือคุณไม่ได้ แต่คุณจะใช้มันอย่างไรคุณจะใช้มันอย่างไรอย่างเหมาะสมและปลอดภัย?”

กรณีของรังสีที่ซับซ้อน

Categories: IT Info