กลุ่มพันธมิตรที่หลากหลายของบุคคลสาธารณะกว่า 800 คน รวมถึงผู้ได้รับรางวัลโนเบล ราชวงศ์อังกฤษ และ”เจ้าพ่อ”ของ AI สมัยใหม่ ลงนามในแถลงการณ์เมื่อวันพุธ เรียกร้องให้ทั่วโลกหยุดการพัฒนา”สติปัญญาขั้นสูง”

อ้างถึงความเสี่ยง ตั้งแต่ความล้าสมัยของมนุษย์ไปจนถึงการสูญพันธุ์โดยสิ้นเชิง ผู้ลงนามเรียกร้องให้ห้ามการสร้าง AI ที่เกินความสามารถทางปัญญาของมนุษย์ จนกว่าจะสามารถพิสูจน์ได้ว่าปลอดภัย ควบคุมได้ และได้รับการสนับสนุนจากสาธารณะในวงกว้าง

ความพยายามที่จัดขึ้นโดย Future of Life Institute (FLI) เกิดขึ้นท่ามกลางการแข่งขันทางเทคโนโลยีที่เข้มข้นขึ้น โดยรวบรวมผู้เชี่ยวชาญที่มีความกังวลเกี่ยวกับแรงผลักดันทางการเงินและการเมืองมหาศาลที่ขับเคลื่อนการพัฒนา AI ไปข้างหน้า

แนวร่วมที่กว้างขวางฟังดู สัญญาณเตือน

ผู้จัดงานแถลงการณ์ชี้ให้เห็นถึงความไม่เชื่อมโยงอย่างสิ้นเชิงระหว่างความทะเยอทะยานของอุตสาหกรรมเทคโนโลยีและเจตจำนงของสาธารณชน

FLI ระดับชาติล่าสุด แบบสำรวจของผู้ใหญ่ 2,000 คนในสหรัฐอเมริกาพบว่า 73% ต้องการกฎระเบียบที่เข้มงวดเกี่ยวกับ AI ขั้นสูง นอกจากนี้ 64% เชื่อว่า AI เหนือมนุษย์ไม่ควรได้รับการพัฒนาจนกว่าจะได้รับการพิสูจน์ว่าปลอดภัยหรือไม่ควรถูกสร้างขึ้นเลย

ชาวอเมริกันเพียง 5% เท่านั้นที่สนับสนุนสถานะปัจจุบันของการพัฒนาที่รวดเร็วและไร้การควบคุม

Anthony Aguirre กรรมการบริหารของ FLI กล่าวอย่างตรงไปตรงมา ในการให้สัมภาษณ์กับ NBC News: “นี่ไม่ใช่สิ่งที่สาธารณชนต้องการ พวกเขาไม่ต้องการแข่งขันเพื่อสิ่งนี้”

ความรู้สึกนี้สะท้อนโดย Yoshua Bengio ผู้บุกเบิก AI ผู้ลงนามในแถลงการณ์และกล่าวเสริมว่า”เรายังต้องแน่ใจว่าสาธารณชนมีความคิดเห็นที่แข็งแกร่งมากขึ้นในการตัดสินใจที่จะกำหนดอนาคตร่วมกันของเรา”

รายชื่อผู้ลงนามมีความโดดเด่นในด้านความกว้าง ซึ่งเชื่อมระหว่างความแตกแยกทางการเมืองและวัฒนธรรมที่ลึกซึ้ง

Steve Wozniak ผู้ร่วมก่อตั้ง Apple, Richard จาก Virgin Group Branson และอดีตประธานเสนาธิการร่วม Mike Mullen ลงนาม เช่นเดียวกับ บุคคลสำคัญในสื่ออนุรักษ์นิยม Glenn Beck และ Steve Bannon.

พวกเขาเข้าร่วมโดย Prince Harry และ Meghan Markle นักแสดง Joseph Gordon-Levitt และอดีตประธานาธิบดีไอริช Mary Robinson บางทีที่สำคัญที่สุด รายชื่อดังกล่าวรวมถึง Geoffrey Hinton ผู้ชนะรางวัล Turing Award และ Yoshua Bengio ซึ่งมีผลงานพื้นฐานที่ช่วยให้ AI บูมในปัจจุบัน

การมีส่วนร่วมของพวกเขาให้ความน่าเชื่อถือทางวิทยาศาสตร์อย่างมากต่อคำเตือนนี้ ผู้เขียน Yuval Noah Harari ผู้ลงนามอีกคนหนึ่ง เตือนว่า”สติปัญญาขั้นสูงมีแนวโน้มที่จะทำลายระบบปฏิบัติการของอารยธรรมมนุษย์ และเป็นสิ่งที่ไม่จำเป็นเลย”

ความคิดเห็นสาธารณะเทียบกับความทะเยอทะยานในอุตสาหกรรม

ในขณะที่ยักษ์ใหญ่ด้านเทคโนโลยีทุ่มเงินหลายพันล้านดอลลาร์ในการแข่งขันเพื่อชิงความเป็นใหญ่ของ AI แต่คำกล่าวดังกล่าวก็แย้งว่าเป้าหมายสูงสุดนั้นอยู่ไกลเกินไป

นักแสดงและนักเขียน Sir Stephen Fry ให้ความเห็นว่า”ตามคำจำกัดความแล้ว สิ่งนี้จะส่งผลให้เกิดพลังที่เราไม่สามารถเข้าใจหรือควบคุมได้”

ความกังวลเกี่ยวกับการควบคุมเป็นประเด็นสำคัญของการอภิปราย ซึ่งสะท้อนถึงความกลัวที่เปล่งออกมาก่อนหน้านี้โดยอดีตบุคคลใน OpenAI ที่เตือนถึงการพัฒนาที่รวดเร็วอย่างน่าสะพรึงกลัว

น่าแปลกที่แม้แต่ผู้นำของบริษัทที่สร้างระบบเหล่านี้ก็ยังแสดงความกลัวที่คล้ายกัน บล็อกโพสต์ในปี 2015 จาก Sam Altman ซีอีโอของ OpenAI ก่อนที่จะเปิดตัว ChatGPT ระบุว่า”การพัฒนาสติปัญญาของเครื่องจักรเหนือมนุษย์ (SMI) อาจเป็นภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อการดำรงอยู่ของมนุษยชาติต่อไป”

ในทำนองเดียวกัน Anthropic CEO Dario Amodei คาดการณ์ต่อสาธารณะว่า”ฉันคิดว่ามีโอกาส 25% ที่สิ่งต่างๆ จะเป็นไปในทิศทางที่เลวร้ายจริงๆ”

Dario Amodei ซีอีโอด้านมานุษยวิทยากล่าวว่าตอนนี้ P(Doom) ของเขาอยู่ที่ 25%https://t.co/lAinvcaYUh

— คาลัม ชาซ (@cccalum) 19 กันยายน 2025

Mustafa Suleyman ซีอีโอของ Microsoft AI ยังกล่าวอีกว่า “จนกว่าเราจะพิสูจน์ได้อย่างชัดเจนว่า [ปลอดภัย] เราไม่ควรประดิษฐ์มันขึ้นมา”

การแข่งขันที่ไม่อาจหยุดยั้งเพื่อความยิ่งใหญ่ของ AI

แม้จะมีคำเตือนภายในเหล่านี้ แต่ การแข่งขันระดับองค์กรและระดับประเทศสู่ความเป็นอัจฉริยะยังคงไม่ลดน้อยลง

Meta ตั้งชื่อแผนกใหม่อย่างชัดเจนว่า”Meta Superintelligence Labs”ซึ่งบ่งบอกถึงวัตถุประสงค์ขององค์กร การผลักดันนี้ได้รับแรงหนุนจากการลงทุนทางการเงินที่มหาศาล

ตามการคาดการณ์ ของ Gartner คาดว่าการใช้จ่ายด้าน AI ขององค์กรจะสูงถึง 1.5 ล้านล้านดอลลาร์ในปี 2568

สร้าง OpenAI เพียงอย่างเดียว รายรับ 4.3 พันล้านดอลลาร์ในช่วงครึ่งแรกของปี 2025 แสดงให้เห็นถึงเงินทุนจำนวนมหาศาลที่ไหลเข้าสู่ภาคส่วนนี้

แรงผลักดันนี้ได้รับการเสริมแรงด้วยนโยบายระดับชาติ แผนปฏิบัติการ AI ของรัฐบาลทรัมป์ซึ่งเปิดตัวในเดือนกรกฎาคม จัดลำดับความสำคัญในการขจัดอุปสรรคด้านกฎระเบียบเพื่อเร่งการพัฒนาและรักษาความได้เปรียบเชิงกลยุทธ์เหนือจีน

พรมแดนไกลเกินไปหรือ การถกเถียงเรื่องความเสี่ยงที่มีอยู่

ผู้เชี่ยวชาญด้าน AI บางคนไม่เห็นด้วยกับคำเตือนอันเลวร้ายนี้ Yann LeCun หัวหน้านักวิทยาศาสตร์ด้าน AI ของ Meta ได้รับเสียงวิพากษ์วิจารณ์เกี่ยวกับสิ่งที่เขาคิดว่าเป็นผู้ตื่นตกใจ สถานการณ์”หายนะ”

เขาปฏิเสธแนวคิดเรื่องการครอบครอง AI ที่ไม่สามารถควบคุมได้ แต่กลับมองเห็นอนาคตของ”เครื่องขยายความอัจฉริยะ”โดยที่ระบบ AI เพิ่มขีดความสามารถของมนุษย์แทนที่จะมาแทนที่

มุมมองนี้ชี้ให้เห็นว่าความเสี่ยงนั้นจัดการได้ และประโยชน์ของ AI อันทรงพลัง ตั้งแต่การรักษาโรคไปจนถึงการแก้ไขการเปลี่ยนแปลงสภาพภูมิอากาศ มีความสำคัญเกินกว่าจะละทิ้งเพราะความกลัว

มุมมองของ LeCun แสดงให้เห็นถึงการแบ่งแยกทางปรัชญาที่สำคัญภายในชุมชน AI โดยวางกรอบการอภิปรายเป็นประเด็นหนึ่งระหว่างการดูแลอย่างระมัดระวังและนวัตกรรมที่ทะเยอทะยานและเป็นอิสระ

ในท้ายที่สุด คำแถลงนี้บังคับให้มีการสนทนาสาธารณะเกี่ยวกับอนาคตของมนุษยชาติในยุคของเครื่องจักรที่ทรงพลังมากขึ้น ผู้จัดงานยืนยันว่าการตัดสินใจสร้างสายพันธุ์ผู้สืบทอดที่มีศักยภาพไม่ควรปล่อยให้ผู้บริหารและนักวิจัยด้านเทคโนโลยีจำนวนหนึ่ง

ศาสตราจารย์ของ Berkeley และ Stuart Russell ผู้ลงนามได้วางกรอบข้อเสนอนี้ไม่ใช่เป็นการห้าม Luddite แต่เป็นมาตรการด้านความปลอดภัยทั่วไป

“นี่ไม่ใช่การห้ามหรือแม้แต่การเลื่อนการชำระหนี้ตามปกติ มันเป็นเพียงข้อเสนอที่ต้องมีมาตรการความปลอดภัยที่เพียงพอสำหรับเทคโนโลยีที่… มี โอกาสสำคัญที่จะทำให้มนุษย์สูญพันธุ์”

ในขณะที่เทคโนโลยีก้าวไปข้างหน้า คำถามสำคัญยังคงอยู่ว่ามนุษยชาติจะเหยียบเบรกได้นานพอที่จะทำให้มั่นใจว่าเบรกจะยังคงอยู่ในที่นั่งคนขับหรือไม่

Categories: IT Info