Openai เมื่อวันอังคารที่เปิดตัว GPT-OSS-120B และ GPT-OSS-20B ซึ่งเป็นรุ่นเปิดตัวครั้งแรกตั้งแต่ปี 2562 การเคลื่อนไหวครั้งนี้นับเป็นการเปลี่ยนแปลงเชิงกลยุทธ์ที่สำคัญสำหรับ AI Lab ซึ่งเผชิญกับการวิพากษ์วิจารณ์ระบบปิด รุ่นใหม่นี้มีอยู่ภายใต้ใบอนุญาต Apache 2.0 ที่อนุญาต
ซึ่งช่วยให้นักพัฒนาสามารถดาวน์โหลดวิ่งและแก้ไขได้อย่างอิสระในฮาร์ดแวร์ท้องถิ่น การเปิดตัวมีวัตถุประสงค์เพื่อตอบโต้ความนิยมที่เพิ่มขึ้นของโมเดลเปิดจากคู่แข่งเช่น meta ด้วยการมีส่วนร่วมกับชุมชนโอเพนซอร์ซอีกครั้ง Openai หวังที่จะกำหนดมาตรฐานความปลอดภัยใหม่
การกลับมาที่รอคอยมานานมาสู่รากที่มีน้ำหนักเปิด
การเปิดตัวสิ้นสุดระยะเวลานานและเป็นที่ถกเถียงกัน จุดหมุนเชิงกลยุทธ์นี้นับเป็นการเปิดตัวรูปแบบภาษาแบบเปิดน้ำหนักครั้งแรกนับตั้งแต่ GPT-2 ในปี 2562 โดยกล่าวถึงข้อเสนอแนะและความยุ่งยากของชุมชนโดยตรง
>>
การกลับมาสู่หลักการเปิดกว้างนี้ถูกล้อเล่นเป็นครั้งแรกโดยซีอีโอแซมอัลท์แมนในเดือนเมษายน การประกาศดังต่อไปนี้มีความล่าช้าสองครั้งในเดือนมิถุนายนและกรกฎาคมทำให้วันนี้เปิดตัวการปฏิบัติตามสัญญาที่รอคอยมานานสำหรับนักพัฒนาและนักวิจัยที่ให้ความสำคัญกับความโปร่งใสและการปรับแต่งได้
การเปิดตัวยังทำให้หลายสัปดาห์ ตอนนี้โมเดลที่มีประสิทธิภาพสูงที่ไม่ได้รับการสนับสนุนนั้นเป็นที่เข้าใจกันว่าเป็นตัวอย่างการซ่อนตัวสำหรับการเปิดตัว GPT-OSS อย่างเป็นทางการ
เราเปิดตัวโมเดลการใช้เหตุผลแบบเปิดสองแบบ-GPT-OSS-120B และ GPT-OSS-20B href=”https://t.co/pdkhqdqcpf”target=”_blank”> https://t.co/pdkhqdqcpf
-openai (@openai) 5 สิงหาคม 2025 มันกล่าวถึงช่องว่างที่สำคัญในพอร์ตโฟลิโอของ Openai ดังที่ Casey Dvorak ผู้จัดการโครงการวิจัยของ OpenAI เขา
สิ่งนี้ช่วยให้ บริษัท สามารถแข่งขันสำหรับนักพัฒนาที่ต้องการหรือต้องการโมเดลที่ดำเนินการในพื้นที่เพื่อความปลอดภัยของข้อมูลค่าใช้จ่ายที่ลดลงหรือการปรับแต่งในงานพิเศษ นอกเหนือจากการเติมช่องว่างของผลิตภัณฑ์แล้วการเคลื่อนไหวก็เกี่ยวกับอิทธิพลของการเรียกคืน Peter Henderson ผู้ช่วยศาสตราจารย์ที่ Princeton University,
ความสำคัญเชิงกลยุทธ์มีความคิดริเริ่มในฐานะเมตาซึ่งเป็นผู้นำมายาวนานในการเปิดแหล่งโอเพ่นซอร์สของอเมริกา เดือยของ Openai วางตำแหน่งให้เป็นแชมป์ใหม่สำหรับชุมชนโอเพนซอร์ซจับนักพัฒนาและนักวิจัยที่มองหาทางเลือกที่ทรงพลังและได้รับอนุญาตอย่างอนุญาต การเปิดตัวใหม่ ทั้งสองถูกสร้างขึ้นบนสถาปัตยกรรมผสมผสาน (MOE) ซึ่งเป็นตัวเลือกการออกแบบที่สำคัญสำหรับการเพิ่มประสิทธิภาพสูงสุดในขณะที่ลดต้นทุนการคำนวณ
สถาปัตยกรรมขั้นสูงนี้ทำให้โมเดลสามารถเข้าถึงได้สูง GPT-OSS-20B ขนาดเล็กสามารถทำงานบนอุปกรณ์ผู้บริโภคด้วย RAM เพียง 16GB ในขณะที่รุ่น 120B ที่มีขนาดใหญ่กว่านั้นต้องการเพียง 80GB GPU เดียวซึ่งเป็นฮาร์ดแวร์ทั่วไปในเวิร์กสเตชันมืออาชีพ ทั้งสองรุ่นพร้อมให้ดาวน์โหลดบน กอดใบหน้า . ในการแสดง จากข้อมูลของการ์ดอย่างเป็นทางการ GPT-OSS-120B ประสบความสำเร็จใกล้เคียงกับ O4-MINI ที่เป็นกรรมสิทธิ์ของ OpenAI ในการกำหนดมาตรฐานการใช้เหตุผลหลัก GPT-OSS-20B ที่เล็กกว่าแสดงความสามารถในการแข่งขันที่คล้ายกันกับโมเดล O3-MINI ภายใต้ประทุน: ประสิทธิภาพและการเข้าถึง
วิธีการที่ GPT-OSS กับคู่แข่ง