กลุ่มผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ (AI) ได้เตือนว่า AI อาจเป็นภัยคุกคามต่อมนุษยชาติ หากไม่พัฒนาและใช้อย่างมีความรับผิดชอบ กลุ่มซึ่งรวมถึงนักวิจัยจาก Google, Microsoft และ OpenAI ได้ตีพิมพ์บทความในวารสาร Nature เมื่อวันที่ 30 พฤษภาคม 2023 โดยสรุปข้อกังวลของพวกเขา
Sam Altman ซีอีโอของ OpenAI, Dario Amodei ซีอีโอของ Anthropic และ Demis Hassabis ซีอีโอของ Google DeepMind เป็นผู้ลงนามที่โดดเด่นที่สุด
“การลดความเสี่ยงต่อการสูญพันธุ์จาก A.I. ควรมีความสำคัญระดับโลกควบคู่ไปกับความเสี่ยงระดับสังคมอื่นๆ เช่น โรคระบาดและสงครามนิวเคลียร์”อ่านจดหมายเปิดผนึก The New York Times รายงาน แถลงการณ์จะออกโดย Center for AI Safety ซึ่งเป็นองค์กรไม่แสวงหากำไรแห่งใหม่ นักวิจัย AI วิศวกร และผู้บริหารบริษัทกว่า 350 คนได้ลงนามในจดหมายร่วมกัน
Geoffrey Hinton และ Yoshua Bengio เป็นนักวิจัยที่มีชื่อเสียงสองคนที่ลงนามแล้ว นักวิจัย 2 ใน 3 คนนี้ได้รับรางวัล Turing Award จากการพัฒนาโครงข่ายประสาทเทียม ทั้งคู่เป็นผู้ริเริ่มด้าน AI, Hinton และ Bengio เป็นที่รู้จักในฐานะ”เจ้าพ่อ”ของนวัตกรรม AI เมื่อต้นเดือนที่ผ่านมา Hinton ลาออกจากตำแหน่งที่ Google หลังจากรู้สึกผิดหวังที่ Google ขาดวิสัยทัศน์และความเป็นผู้นำในการพัฒนา AI เขายังเตือนถึงอันตรายที่อาจเกิดขึ้นจาก AI
AI อาจคุกคามการดำรงอยู่ของเรา
ผู้เชี่ยวชาญโต้แย้งว่า AI สามารถใช้เพื่อสร้างอาวุธอิสระที่สามารถ ฆ่าโดยปราศจากการแทรกแซงของมนุษย์ พวกเขายังกังวลว่า AI อาจถูกใช้เพื่อจัดการกับผู้คนหรือเผยแพร่ข้อมูลที่ผิด กลุ่มเรียกร้องความพยายามระดับโลกในการพัฒนา AI ด้วยวิธีที่ปลอดภัยและมีความรับผิดชอบ
คำเตือนจากผู้เชี่ยวชาญด้าน AI เกิดขึ้นในเวลาที่ AI มีพลังมากขึ้นอย่างรวดเร็ว ในช่วงไม่กี่ปีที่ผ่านมา AI ถูกนำมาใช้เพื่อพัฒนารถยนต์ที่ขับเคลื่อนด้วยตัวเอง ซอฟต์แวร์จดจำใบหน้า และแม้แต่แชทบอทที่ขับเคลื่อนด้วย AI ในขณะที่ AI พัฒนาอย่างต่อเนื่อง สิ่งสำคัญคือต้องพิจารณาความเสี่ยงที่อาจเกิดขึ้นรวมถึงผลประโยชน์ที่อาจเกิดขึ้น
ผู้เชี่ยวชาญด้าน AI ที่ตีพิมพ์บทความใน Nature ไม่ใช่คนแรกที่เตือนเกี่ยวกับอันตรายที่อาจเกิดขึ้นจาก AI ในปี 2015 Elon Musk และ Stephen Hawking ร่วมกันเขียน จดหมายเปิดผนึกเรียกร้องให้มีการห้ามอาวุธอัตโนมัติ และในปี 2017 สถาบัน Future of Life ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่ส่งเสริมการวิจัยเกี่ยวกับความเสี่ยงที่มีอยู่ได้เผยแพร่รายงานเกี่ยวกับอันตรายของ AI
คำเตือนจากผู้เชี่ยวชาญด้าน AI และผู้เชี่ยวชาญอื่นๆ-โทรออก เป็นที่ชัดเจนว่า AI เป็นเทคโนโลยีที่ทรงพลังและมีศักยภาพในการสร้างความเสียหายอย่างใหญ่หลวง จำเป็นอย่างยิ่งที่เราจะต้องพัฒนา AI ด้วยวิธีที่มีความรับผิดชอบ และเราต้องดำเนินการเพื่อลดความเสี่ยง
แม้จะมีข้อกังวล แต่การพัฒนา AI ก็ยังดำเนินต่อไปอย่างเต็มกำลัง
มีความกังวลมากมายเกี่ยวกับ AI และฝ่ายนิติบัญญัติ และแม้แต่ผู้ที่เกี่ยวข้องในอุตสาหกรรม AI ก็กำลังพูดถึงพวกเขา บางทีความขัดแย้งที่ใหญ่ที่สุดในเทคโนโลยีในขณะนี้ก็คือการพัฒนาอย่างต่อเนื่องสำหรับ AI กำเนิดขั้นสูง แม้ว่าบุคคลสำคัญหลายคนจะพูดถึงอันตรายก็ตาม ฉันเดาว่าคำถามที่ชัดเจนคือ หากผู้บริหารอย่าง Sam Altman กังวล ทำไมพวกเขายังพัฒนาระบบ AI อยู่ เทคโนโลยีนี้ขับเคลื่อนด้วยผลกำไรล้วนๆ หรือเป็นความโอหังและความเชื่อว่าเราสามารถควบคุมเทคโนโลยีนี้ได้
Sam Altman เป็นผู้ร่วมก่อตั้ง OpenAI (ร่วมกับ Elon Musk) และเป็น CEO คนปัจจุบันของบริษัทวิจัย AI. เขาได้กลายเป็นหนึ่งในผู้นำด้านเทคโนโลยีที่ทรงพลังที่สุดในช่วงไม่กี่เดือนที่ผ่านมา เนื่องจาก ChatGPT กลายเป็นแชทบอท AI ที่ได้รับความนิยมมากที่สุด นอกจากนี้ Altman ยังรักษาความเป็นหุ้นส่วนเชิงลึกกับ Microsoft หลังจากการลงทุนหลายพันล้านดอลลาร์จากบริษัท Redmond
ในขณะที่ OpenAI และ Microsoft ได้พัฒนาผลิตภัณฑ์ AI เช่น GPT-4, ChatGPT, Bing Chat, Microsoft 365 Copilot และ GitHub Copilot อย่างไรก็ตาม นักวิจารณ์ของ Altman อ้างว่า OpenAI นั้นเร็วเกินไปที่จะพัฒนาผลิตภัณฑ์ AI กำเนิดโดยไม่ต้องรอกฎระเบียบที่เหมาะสม Elon Musk อดีตหุ้นส่วนของ Altman ที่ OpenAI ก็เป็นหนึ่งในผู้วิจารณ์ดังกล่าว โดยกล่าวว่าวิธีที่บริษัทเป็นอยู่ตอนนี้ไม่ใช่อย่างที่เขาตั้งใจไว้
Musk ยังเข้าร่วมกับผู้นำด้านเทคโนโลยีคนอื่นๆ ในการสร้างโครงการ Initiative for Life ซึ่ง เรียกร้องให้นักพัฒนา AI ยุติการพัฒนาโมเดลที่ทรงพลังกว่า GPT-4 เป็นเวลาอย่างน้อยหกเดือน เป็นที่น่าสังเกตว่า Altman เพิ่งอ้างว่า GPT-5 ไม่ได้ถูกพัฒนาโดย OpenAI สัปดาห์นี้ Altman พูดในการพิจารณาของรัฐสภาในสหรัฐอเมริกาและยอมรับว่าจำเป็นต้องมีกฎระเบียบที่ชัดเจนและเข้มงวดสำหรับการพัฒนา AI