Sam Altman ซีอีโอของ Openai ได้ส่งสัญญาณการปรับเทียบใหม่อย่างมีนัยสำคัญของมุมมองของเขาเกี่ยวกับกฎระเบียบ AI ในระหว่างการพิจารณาของคณะกรรมการการค้าของวุฒิสภาเมื่อวันที่ 8 พฤษภาคม 2025
Altman เตือนว่ารัฐบาลที่เข้มงวดได้รับการอนุมัติล่วงหน้าสำหรับการเปิดตัวแบบจำลอง AI ที่ทรงพลัง ตำแหน่งนี้แตกต่างอย่างมากกับคำให้การของเขาพฤษภาคม 2023 ซึ่งเขาได้สนับสนุนการสร้างหน่วยงานรัฐบาลกลางใหม่เพื่อให้ใบอนุญาตและทดสอบขั้นสูง AI เรียกมันว่าคำแนะนำของเขา’อันดับหนึ่ง’เพื่อสร้างความมั่นใจในความปลอดภัยของ AI สำหรับกรอบการกำกับดูแล’แสง’เพื่อส่งเสริมนวัตกรรมและรักษาความได้เปรียบในการแข่งขันโดยเฉพาะอย่างยิ่งกับจีน
ในการพิจารณา [เนื้อหาที่ฝังตัว]
บริบททางการเมืองและอุตสาหกรรมที่กว้างขึ้นกำลังกำหนดกรอบการพัฒนา AI มากขึ้นผ่านปริซึมของการแข่งขันระหว่างประเทศและความมั่นคงของชาติ วุฒิสมาชิกเท็ดครูซ (R-Texas) เป็นประธานการพิจารณาคดีตอกย้ำสิ่งนี้โดยระบุว่าสหรัฐฯ“ ไม่อนุญาตให้มีการควบคุมแม้กระทั่งประเภทที่อ่อนโยนที่คาดคะเนเพื่อหายใจไม่ออกนวัตกรรมและการยอมรับ” และประกาศแผนการที่จะแนะนำร่างกฎหมาย href=”https://www.techpolicy.press/transcript-sam-altman-testifies-at-us-senate-hearing-on-ai-competitiveness/”target=”_ blank”> การได้ยินของวุฒิสภา href=”https://lk.usembassy.gov/remarks-by-vice-president-vance-at-artificial-intelligence-ai-action-acmit/”target=”blank” วิธีการนี้นับเป็นการออกจากกลยุทธ์ของการบริหาร Biden ซึ่งรวมถึงคำสั่งผู้บริหารที่ได้รับคำสั่งการทดสอบความปลอดภัย AI ซึ่งต่อมาได้ยกเลิกโดยประธานาธิบดีทรัมป์ การบริหารของทรัมป์ได้ออกมา
อุตสาหกรรม Ai นำทางภูมิทัศน์ด้านกฎระเบียบที่เปลี่ยนแปลงไป
การเรียกร้องให้อุตสาหกรรมเป็นผู้นำในการกำหนดมาตรฐาน AI เขาอธิบายถึงการกระทำของสหภาพยุโรป AI ที่ครอบคลุมของสหภาพยุโรปโดยเฉพาะว่า“ หายนะ”
มุมมองนี้สะท้อนกับผู้บริหารด้านเทคโนโลยีคนอื่น ๆ รวมถึงประธานาธิบดีแบรดสมิ ธ ประธานาธิบดี Microsoft ซึ่งแม้จะมีการเรียกร้องให้หน่วยงาน AI ของรัฐบาลกลาง ท่าทางการพัฒนานั้นสะท้อนให้เห็นในการเปลี่ยนแปลงนโยบายที่ Major AI Labs; ยกตัวอย่างเช่น DeepMind ของ Google ได้ทิ้งคำมั่นสัญญามาเป็นเวลานานในเดือนกุมภาพันธ์ 2568 จากการพัฒนา AI สำหรับอาวุธหรือการเฝ้าระวังและ Openai, Meta และมานุษยวิทยาได้ปรับปรุงนโยบายของพวกเขาในทำนองเดียวกัน
Rumman Chowdhury อดีตทูตกระทรวงวิทยาศาสตร์ของรัฐสำหรับ AI,
แรงกดดันภายในที่ OpenAI เกี่ยวกับภาระผูกพันด้านความปลอดภัยก็ปรากฏขึ้นเช่นกัน Jan Leike อดีตผู้นำร่วมของทีม Superalignment ของ Openai ลาออกในเดือนพฤษภาคม 2567 โดยระบุว่า“ วัฒนธรรมและกระบวนการด้านความปลอดภัยได้นำเบาะหลังไปสู่ผลิตภัณฑ์ที่เป็นประกาย” ตามที่ Winbuzzer รายงาน สิ่งนี้เกิดขึ้นตามการสลายตัวของทีม Superalignment ซึ่งก่อตั้งขึ้นในเดือนกรกฎาคม 2566 เพื่อมุ่งเน้นไปที่ความเสี่ยง AI ระยะยาว ในการตอบสนองต่อการเปลี่ยนแปลงภายในเหล่านี้แซมอัลท์แมนยอมรับในเดือนพฤษภาคม 2567 ว่า Openai มี“ อีกมากที่ต้องทำ” เกี่ยวกับความปลอดภัย
เมื่อเร็ว ๆ นี้ในเดือนเมษายน 2568 Openai ได้ปรับปรุงแนวทางความปลอดภัยภายใน การเคลื่อนไหวครั้งนี้เกิดขึ้นไม่นานหลังจากมีรายงานว่า OpenAI ได้ลดเวลาในการทดสอบความปลอดภัยอย่างมีนัยสำคัญสำหรับรุ่นใหม่เช่น O3 จากหลายเดือนถึงบางครั้งภายใต้หนึ่งสัปดาห์กระตุ้นความกังวลจากผู้ทดสอบซึ่งหนึ่งในนั้นอธิบายถึงวิธีการนี้ว่า”ประมาท”
ท้าทาย. ในขณะที่ OpenAI มีวิธีการทางเทคนิคโดยละเอียดเช่น’การจัดตำแหน่งโดยเจตนา’เพื่อฝังเหตุผลด้านความปลอดภัยลงในแบบจำลองของมันและได้ระบุการวิจัยเกี่ยวกับการโน้มน้าวใจ AI เพื่อให้แน่ใจว่า AI จะไม่ได้รับประสิทธิภาพมากเกินไป อดีตพนักงานของ OpenAI ได้กล่าวหาว่า Altman ต่อต้านการควบคุม AI ที่มีประสิทธิภาพในความโปรดปรานของนโยบายที่ให้บริการทางธุรกิจของ บริษัท
ห้องปฏิบัติการ AI อื่น ๆ กำลังนำทางภูมิประเทศที่ซับซ้อนนี้เช่นกัน ยกตัวอย่างเช่นมานุษยวิทยาเปิดตัวกรอบการตีความในเดือนมีนาคม 2568 เพื่อให้การให้เหตุผลของ Claude Ai มีความโปร่งใสมากขึ้นและยังส่งคำแนะนำไปยังทำเนียบขาวกระตุ้นการทดสอบความมั่นคงแห่งชาติของระบบ AI
สิ่งนี้เน้นถึง บริษัท AI Dance Dance ที่ซับซ้อนดำเนินการระหว่างการสนับสนุนการกำกับดูแลบางประเภทและการรักษาความยืดหยุ่นในการดำเนินงาน
บริบทที่กว้างขึ้นรวมถึงความเสี่ยงที่แท้จริงที่แสดงให้เห็นโดย AI เช่นการศึกษาเมื่อเร็ว ๆ นี้ นอกจากนี้ช่องโหว่ด้านความปลอดภัยใหม่ในเครื่องมือ AI ที่ใช้กันอย่างแพร่หลายเช่น Copilot ของ Microsoft สำหรับ SharePoint ยังคงปรากฏต่อไปโดยเน้นความเสี่ยงทันทีแม้ในขณะที่การเรียกร้องให้มีการควบคุมที่เบาลง Superhuman at General Intelligence”ดูเหมือนจะโดดเด่นเป็นพิเศษในขณะที่เขาสนับสนุนเพื่ออิสรภาพในอุตสาหกรรมมากขึ้น การเรียกร้องก่อนหน้านี้ของเขาสำหรับหน่วยงานออกใบอนุญาตและการทดสอบก่อนการเปิดตัวยืนอยู่ในทางตรงกันข้ามกับการเน้นในปัจจุบันของเขาในการหลีกเลี่ยงกฎระเบียบที่สามารถ’สำลักนวัตกรรม’
วิวัฒนาการนี้ในท่าสาธารณะของเขาเกิดขึ้นในฐานะรัฐบาลสหรัฐฯ การสนับสนุนทางทหารของ AI ในฐานะ“ ความจำเป็นทางศีลธรรม”
ในขณะที่อัลท์แมนแนะนำว่าปัญหาที่ซับซ้อนเช่นความเป็นส่วนตัวเป็นตัวแทนของ“ นี่คือพื้นที่สีเทา…สำหรับคุณ วอชิงตันโพสต์ว่า“ หากมีร้านค้าแซนวิชฝั่งตรงข้ามถนนจาก Openai หรือมานุษยวิทยาหรือหนึ่งใน บริษัท อื่น ๆ ก่อนที่พวกเขาจะสามารถขายแซนวิชแม้แต่หนึ่งพวกเขาต้องทำตามมาตรฐานความปลอดภัยสำหรับห้องครัวของพวกเขา หาก [บริษัท AI] ต้องการที่จะปล่อย Super Intelligence ในวันพรุ่งนี้พวกเขามีอิสระที่จะทำเช่นนั้น”
ในฐานะ”อายุปัญญา”ที่คลี่คลายงานสำคัญของการสร้างความสมดุลระหว่างนวัตกรรมกับความปลอดภัยสาธารณะและกำหนดกรอบการกำกับดูแลสำหรับ AI ที่ทรงพลังมากขึ้น