OpenAI ได้เปิดตัว Flex Processing ซึ่งเป็นบริการ API ที่แตกต่างกันไปเพื่อนักพัฒนาที่มองหาวิธีที่ประหยัดกว่าในการใช้รูปแบบการใช้เหตุผล O3 และ O4-MINI ของ บริษัท ประกาศอย่างเป็นทางการเมื่อวันที่ 17 เมษายน 2568 และปัจจุบันมีอยู่ในเบต้าตัวเลือกนี้จะช่วยลดค่าใช้จ่ายต่อการเปิดตัวได้อย่างมีนัยสำคัญเมื่อเทียบกับอัตรา API มาตรฐานทำให้ AI ขั้นสูงสามารถเข้าถึงได้มากขึ้นสำหรับแอปพลิเคชันบางอย่างแม้ว่ามันจะมาพร้อมกับการแลกเปลี่ยนประสิทธิภาพ

ระดับใหม่ เอกสารการประมวลผลแบบยืดหยุ่น ชี้ไปที่กรณีเช่น”การประเมินแบบจำลองการเพิ่มประสิทธิภาพข้อมูล มันถูกนำเสนอเป็นโซลูชันสำหรับงานที่มีลำดับความสำคัญต่ำหรือไม่ได้ผลิตซึ่งการประหยัดต้นทุนเกินความจำเป็นสำหรับความเร็ว

การเปรียบเทียบ Flex กับการกำหนดราคามาตรฐาน

การประมวลผลแบบยืดหยุ่นลดค่าใช้จ่ายสำหรับการโต้ตอบกับแบบจำลองเหล่านี้อย่างแน่นอน สำหรับรุ่น O3 นักพัฒนาที่ใช้ Flex จะจ่ายโทเค็นอินพุต 5 ล้านดอลลาร์และโทเค็นเอาท์พุท $ 20 ต่อล้านโทเค็นลดลงอย่างรวดเร็วจากอัตรามาตรฐานของ $ 10 และ $ 40 ตามลำดับ

.”หากระบบขาดความจุเพียงพอเมื่อมีการร้องขอ FLEX มาถึงจะส่งคืนรหัสข้อผิดพลาด 429 HTTP ที่สำคัญ OpenAI ได้ยืนยันว่านักพัฒนาจะไม่ถูกเรียกเก็บเงินสำหรับคำขอที่ล้มเหลวด้วยข้อผิดพลาดเฉพาะนี้

เพื่อจัดการกับเงื่อนไขเหล่านี้ OpenAI แนะนำให้นักพัฒนาใช้การจัดการข้อผิดพลาดที่เหมาะสม สำหรับแอปพลิเคชันที่ทนต่อความล่าช้าขอแนะนำให้ลองใช้คำขอหลังจากหยุดชั่วคราว-อาจใช้ตรรกะ backoff แบบเอ็กซ์โปเนนเชียล หากจำเป็นต้องเสร็จสิ้นทันเวลาการกลับไปที่ระดับ API มาตรฐานยังคงเป็นตัวเลือก

นักพัฒนาจำเป็นต้องคาดการณ์เวลาตอบสนองที่ช้าลงในตรรกะแอปพลิเคชันของพวกเขา การหมดเวลา 10 นาทีเริ่มต้นใน SDK อย่างเป็นทางการของ OpenAI อาจไม่เพียงพอและ บริษัท แนะนำให้เพิ่มการหมดเวลานี้เป็น 15 นาทีสำหรับคำขอ FLEX ในการเปิดใช้งานบริการนี้นักพัฒนาจะต้องระบุ `service_tier=”Flex”` พารามิเตอร์ภายในการโทร API ของพวกเขา

บริบท: O3/O4-Mini รุ่นและการเปลี่ยนแปลงของตลาด

การกำหนดราคาใหม่ ด้วยการให้เหตุผลที่ได้รับการปรับปรุงและสิ่งที่ OpenAI เรียกว่า“ พฤติกรรมตัวแทนก่อนหน้านี้”

ซึ่งหมายความว่าภายในสภาพแวดล้อมการโต้ตอบ chatgpt สำหรับสมาชิกรุ่นเหล่านี้“ สามารถตัดสินใจได้อย่างอิสระว่าเครื่องมือใดที่จะใช้และเมื่อใดโดยไม่ต้องแจ้งเตือนผู้ใช้ การประมวลผลแบบยืดหยุ่นนำเสนอเส้นทางที่แตกต่างและราคาไม่แพงมากขึ้นสำหรับนักพัฒนาเพื่อใช้ประโยชน์จากโมเดลเหล่านี้ผ่าน API เหมาะสำหรับงานแบ็กเอนด์ที่ค่าใช้จ่ายเป็นตัวขับเคลื่อนหลัก

การเปิดตัวแบบจำลองอย่างรวดเร็วและระดับการกำหนดราคาใหม่นี้มาถึงสภาพแวดล้อมการแข่งขัน เพื่อให้การย้ายของ Openai เพื่อให้นักพัฒนามีการควบคุมที่ละเอียดยิ่งขึ้นเกี่ยวกับต้นทุนและประสิทธิภาพ การเปิดตัวนี้ยังติดตามการเปิดตัวที่เน้นนักพัฒนาล่าสุดจาก OpenAI เช่นเครื่องมือ Codex Codex โอเพนซอร์ซซึ่งสามารถใช้ประโยชน์จากโมเดล O3 และ O4-Mini

ข้อกำหนดการเข้าถึง API

การเข้าถึงโปรแกรมใหม่ ในขณะที่ O4-mini มีให้เลือกมากมายในหลาย ๆ ระดับ (1-5) โมเดล O3 ที่ทรงพลังกว่าโดยทั่วไปต้องการให้นักพัฒนาอยู่ในระดับการใช้จ่ายที่สูงขึ้น (4 หรือ 5)

อย่างไรก็ตาม OpenAI ช่วยให้ผู้ใช้ในระดับต่ำกว่า (1-3) สามารถเข้าถึง API ไปยัง O3 รวมถึงความสามารถที่เกี่ยวข้อง สิ่งนี้สอดคล้องกับนโยบายที่ระบุไว้ของ OpenAI เพื่อให้มั่นใจว่าการใช้แพลตฟอร์มที่รับผิดชอบ

Categories: IT Info