กลุ่มพันธมิตรที่หลากหลายของบุคคลสาธารณะกว่า 800 คน รวมถึงผู้ได้รับรางวัลโนเบล ราชวงศ์อังกฤษ และ”เจ้าพ่อ”ของ AI สมัยใหม่ ลงนามในแถลงการณ์เมื่อวันพุธ เรียกร้องให้ทั่วโลกหยุดการพัฒนา”สติปัญญาขั้นสูง”
อ้างถึงความเสี่ยง ตั้งแต่ความล้าสมัยของมนุษย์ไปจนถึงการสูญพันธุ์โดยสิ้นเชิง ผู้ลงนามเรียกร้องให้ห้ามการสร้าง AI ที่เกินความสามารถทางปัญญาของมนุษย์ จนกว่าจะสามารถพิสูจน์ได้ว่าปลอดภัย ควบคุมได้ และได้รับการสนับสนุนจากสาธารณะในวงกว้าง
ความพยายามที่จัดขึ้นโดย Future of Life Institute (FLI) เกิดขึ้นท่ามกลางการแข่งขันทางเทคโนโลยีที่เข้มข้นขึ้น โดยรวบรวมผู้เชี่ยวชาญที่มีความกังวลเกี่ยวกับแรงผลักดันทางการเงินและการเมืองมหาศาลที่ขับเคลื่อนการพัฒนา AI ไปข้างหน้า
แนวร่วมที่กว้างขวางฟังดู สัญญาณเตือน
ผู้จัดงานแถลงการณ์ชี้ให้เห็นถึงความไม่เชื่อมโยงอย่างสิ้นเชิงระหว่างความทะเยอทะยานของอุตสาหกรรมเทคโนโลยีและเจตจำนงของสาธารณชน
FLI ระดับชาติล่าสุด แบบสำรวจของผู้ใหญ่ 2,000 คนในสหรัฐอเมริกาพบว่า 73% ต้องการกฎระเบียบที่เข้มงวดเกี่ยวกับ AI ขั้นสูง นอกจากนี้ 64% เชื่อว่า AI เหนือมนุษย์ไม่ควรได้รับการพัฒนาจนกว่าจะได้รับการพิสูจน์ว่าปลอดภัยหรือไม่ควรถูกสร้างขึ้นเลย
ชาวอเมริกันเพียง 5% เท่านั้นที่สนับสนุนสถานะปัจจุบันของการพัฒนาที่รวดเร็วและไร้การควบคุม
Anthony Aguirre กรรมการบริหารของ FLI กล่าวอย่างตรงไปตรงมา ในการให้สัมภาษณ์กับ NBC News: “นี่ไม่ใช่สิ่งที่สาธารณชนต้องการ พวกเขาไม่ต้องการแข่งขันเพื่อสิ่งนี้”
ความรู้สึกนี้สะท้อนโดย Yoshua Bengio ผู้บุกเบิก AI ผู้ลงนามในแถลงการณ์และกล่าวเสริมว่า”เรายังต้องแน่ใจว่าสาธารณชนมีความคิดเห็นที่แข็งแกร่งมากขึ้นในการตัดสินใจที่จะกำหนดอนาคตร่วมกันของเรา”
รายชื่อผู้ลงนามมีความโดดเด่นในด้านความกว้าง ซึ่งเชื่อมระหว่างความแตกแยกทางการเมืองและวัฒนธรรมที่ลึกซึ้ง
Steve Wozniak ผู้ร่วมก่อตั้ง Apple, Richard จาก Virgin Group Branson และอดีตประธานเสนาธิการร่วม Mike Mullen ลงนาม เช่นเดียวกับ บุคคลสำคัญในสื่ออนุรักษ์นิยม Glenn Beck และ Steve Bannon.
พวกเขาเข้าร่วมโดย Prince Harry และ Meghan Markle นักแสดง Joseph Gordon-Levitt และอดีตประธานาธิบดีไอริช Mary Robinson บางทีที่สำคัญที่สุด รายชื่อดังกล่าวรวมถึง Geoffrey Hinton ผู้ชนะรางวัล Turing Award และ Yoshua Bengio ซึ่งมีผลงานพื้นฐานที่ช่วยให้ AI บูมในปัจจุบัน
การมีส่วนร่วมของพวกเขาให้ความน่าเชื่อถือทางวิทยาศาสตร์อย่างมากต่อคำเตือนนี้ ผู้เขียน Yuval Noah Harari ผู้ลงนามอีกคนหนึ่ง เตือนว่า”สติปัญญาขั้นสูงมีแนวโน้มที่จะทำลายระบบปฏิบัติการของอารยธรรมมนุษย์ และเป็นสิ่งที่ไม่จำเป็นเลย”
ความคิดเห็นสาธารณะเทียบกับความทะเยอทะยานในอุตสาหกรรม
ในขณะที่ยักษ์ใหญ่ด้านเทคโนโลยีทุ่มเงินหลายพันล้านดอลลาร์ในการแข่งขันเพื่อชิงความเป็นใหญ่ของ AI แต่คำกล่าวดังกล่าวก็แย้งว่าเป้าหมายสูงสุดนั้นอยู่ไกลเกินไป
นักแสดงและนักเขียน Sir Stephen Fry ให้ความเห็นว่า”ตามคำจำกัดความแล้ว สิ่งนี้จะส่งผลให้เกิดพลังที่เราไม่สามารถเข้าใจหรือควบคุมได้”
ความกังวลเกี่ยวกับการควบคุมเป็นประเด็นสำคัญของการอภิปราย ซึ่งสะท้อนถึงความกลัวที่เปล่งออกมาก่อนหน้านี้โดยอดีตบุคคลใน OpenAI ที่เตือนถึงการพัฒนาที่รวดเร็วอย่างน่าสะพรึงกลัว
น่าแปลกที่แม้แต่ผู้นำของบริษัทที่สร้างระบบเหล่านี้ก็ยังแสดงความกลัวที่คล้ายกัน บล็อกโพสต์ในปี 2015 จาก Sam Altman ซีอีโอของ OpenAI ก่อนที่จะเปิดตัว ChatGPT ระบุว่า”การพัฒนาสติปัญญาของเครื่องจักรเหนือมนุษย์ (SMI) อาจเป็นภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อการดำรงอยู่ของมนุษยชาติต่อไป”
ในทำนองเดียวกัน Anthropic CEO Dario Amodei คาดการณ์ต่อสาธารณะว่า”ฉันคิดว่ามีโอกาส 25% ที่สิ่งต่างๆ จะเป็นไปในทิศทางที่เลวร้ายจริงๆ”
Dario Amodei ซีอีโอด้านมานุษยวิทยากล่าวว่าตอนนี้ P(Doom) ของเขาอยู่ที่ 25%https://t.co/lAinvcaYUh
— คาลัม ชาซ (@cccalum) 19 กันยายน 2025
Mustafa Suleyman ซีอีโอของ Microsoft AI ยังกล่าวอีกว่า “จนกว่าเราจะพิสูจน์ได้อย่างชัดเจนว่า [ปลอดภัย] เราไม่ควรประดิษฐ์มันขึ้นมา”
การแข่งขันที่ไม่อาจหยุดยั้งเพื่อความยิ่งใหญ่ของ AI
แม้จะมีคำเตือนภายในเหล่านี้ แต่ การแข่งขันระดับองค์กรและระดับประเทศสู่ความเป็นอัจฉริยะยังคงไม่ลดน้อยลง
Meta ตั้งชื่อแผนกใหม่อย่างชัดเจนว่า”Meta Superintelligence Labs”ซึ่งบ่งบอกถึงวัตถุประสงค์ขององค์กร การผลักดันนี้ได้รับแรงหนุนจากการลงทุนทางการเงินที่มหาศาล
ตามการคาดการณ์ ของ Gartner คาดว่าการใช้จ่ายด้าน AI ขององค์กรจะสูงถึง 1.5 ล้านล้านดอลลาร์ในปี 2568
สร้าง OpenAI เพียงอย่างเดียว รายรับ 4.3 พันล้านดอลลาร์ในช่วงครึ่งแรกของปี 2025 แสดงให้เห็นถึงเงินทุนจำนวนมหาศาลที่ไหลเข้าสู่ภาคส่วนนี้
แรงผลักดันนี้ได้รับการเสริมแรงด้วยนโยบายระดับชาติ แผนปฏิบัติการ AI ของรัฐบาลทรัมป์ซึ่งเปิดตัวในเดือนกรกฎาคม จัดลำดับความสำคัญในการขจัดอุปสรรคด้านกฎระเบียบเพื่อเร่งการพัฒนาและรักษาความได้เปรียบเชิงกลยุทธ์เหนือจีน
พรมแดนไกลเกินไปหรือ การถกเถียงเรื่องความเสี่ยงที่มีอยู่
ผู้เชี่ยวชาญด้าน AI บางคนไม่เห็นด้วยกับคำเตือนอันเลวร้ายนี้ Yann LeCun หัวหน้านักวิทยาศาสตร์ด้าน AI ของ Meta ได้รับเสียงวิพากษ์วิจารณ์เกี่ยวกับสิ่งที่เขาคิดว่าเป็นผู้ตื่นตกใจ สถานการณ์”หายนะ”
เขาปฏิเสธแนวคิดเรื่องการครอบครอง AI ที่ไม่สามารถควบคุมได้ แต่กลับมองเห็นอนาคตของ”เครื่องขยายความอัจฉริยะ”โดยที่ระบบ AI เพิ่มขีดความสามารถของมนุษย์แทนที่จะมาแทนที่
มุมมองนี้ชี้ให้เห็นว่าความเสี่ยงนั้นจัดการได้ และประโยชน์ของ AI อันทรงพลัง ตั้งแต่การรักษาโรคไปจนถึงการแก้ไขการเปลี่ยนแปลงสภาพภูมิอากาศ มีความสำคัญเกินกว่าจะละทิ้งเพราะความกลัว
มุมมองของ LeCun แสดงให้เห็นถึงการแบ่งแยกทางปรัชญาที่สำคัญภายในชุมชน AI โดยวางกรอบการอภิปรายเป็นประเด็นหนึ่งระหว่างการดูแลอย่างระมัดระวังและนวัตกรรมที่ทะเยอทะยานและเป็นอิสระ
ในท้ายที่สุด คำแถลงนี้บังคับให้มีการสนทนาสาธารณะเกี่ยวกับอนาคตของมนุษยชาติในยุคของเครื่องจักรที่ทรงพลังมากขึ้น ผู้จัดงานยืนยันว่าการตัดสินใจสร้างสายพันธุ์ผู้สืบทอดที่มีศักยภาพไม่ควรปล่อยให้ผู้บริหารและนักวิจัยด้านเทคโนโลยีจำนวนหนึ่ง
ศาสตราจารย์ของ Berkeley และ Stuart Russell ผู้ลงนามได้วางกรอบข้อเสนอนี้ไม่ใช่เป็นการห้าม Luddite แต่เป็นมาตรการด้านความปลอดภัยทั่วไป
“นี่ไม่ใช่การห้ามหรือแม้แต่การเลื่อนการชำระหนี้ตามปกติ มันเป็นเพียงข้อเสนอที่ต้องมีมาตรการความปลอดภัยที่เพียงพอสำหรับเทคโนโลยีที่… มี โอกาสสำคัญที่จะทำให้มนุษย์สูญพันธุ์”
ในขณะที่เทคโนโลยีก้าวไปข้างหน้า คำถามสำคัญยังคงอยู่ว่ามนุษยชาติจะเหยียบเบรกได้นานพอที่จะทำให้มั่นใจว่าเบรกจะยังคงอยู่ในที่นั่งคนขับหรือไม่