Microsoft ได้เปิดตัวโมเดลปัญญาประดิษฐ์ใหม่สามรุ่นภายใต้แบนเนอร์ PHI ซึ่งทำให้การมุ่งเน้นไปที่ระบบขนาดเล็กและมีประสิทธิภาพที่มีประสิทธิภาพมากขึ้นซึ่งสามารถแก้ปัญหาได้อย่างซับซ้อน บริษัท ปล่อย phi-4-asoning และ phi-4-3.8 พันล้านพารามิเตอร์
โมเดลที่อธิบายโดย Microsoft เป็นระบบที่“ โมเดลการให้เหตุผลได้รับการฝึกฝนให้ใช้ประโยชน์จากการขยายเวลาเพื่อดำเนินการงานที่ซับซ้อนซึ่งต้องการการสลายตัวหลายขั้นตอนและการสะท้อนกลับภายใน ตอนนี้มีให้บริการผ่าน Microsoft Azure ai Foundry target=”_ blank”> hugging face platform ภายใต้ใบอนุญาตที่ได้รับอนุญาต
การผลักดันขอบเขตการให้เหตุผลด้วยพารามิเตอร์ที่น้อยลง
การเรียกร้องส่วนกลางคือโมเดลขนาดเล็กเหล่านี้ Microsoft’s เอกสารทางเทคนิค ยืนยันว่า phi-4-asoning-plus เพิ่มขึ้นผ่านการเรียนรู้การเสริมแรง การประเมินเช่นการทดสอบ AIME 2025
>
มีรายงานว่ารุ่น 14B ทั้งคู่
DEEPSEEK-R1-DISTILL-LLAMA-70B สามารถอยู่ในช่วงตั้งแต่ 30% ถึง 70% ตลอด 50 การวิ่งทำให้การเปรียบเทียบแบบวิ่งครั้งเดียวอาจไม่น่าเชื่อถือ Phi-4-Mini-asining แม้จะมีขนาดพารามิเตอร์ 3.8B href=”https://huggingface.co/microsoft/phi-4-mini-reasoning”target=”_ blank”> ความยาวบริบท 128,000-token
ภายในกระบวนการฝึกอบรมและข้อมูลจำเพาะโมเดล
การบรรลุผลการปฏิบัติงานนี้เกี่ยวข้องกับกลยุทธ์การฝึกอบรมที่เฉพาะเจาะจง PHI-4-Reasoning เป็นการปรับแต่งการปรับแต่ง (SFT) ของโมเดลพื้นฐาน PHI-4 ดั้งเดิมโดยใช้ตัวอย่างมากกว่า 1.4 ล้านตัวอย่างที่มีขั้นตอนการให้เหตุผลที่สร้างขึ้นโดย O3AI ของ Openai
กระบวนการ SFT นี้โดยใช้การเรียนรู้ที่เกี่ยวข้องกับการใช้งาน การเพิ่มประสิทธิภาพ (GRPO)-อัลกอริทึมที่ออกแบบมาเพื่อปรับปรุงเอาต์พุตแบบจำลองตามการตั้งค่าสัมพัทธ์ระหว่างการตอบสนองที่สร้างขึ้นที่แตกต่างกัน-เพื่อปรับแต่งผลลัพธ์
สิ่งนี้ทำให้เกิดความแม่นยำสูงขึ้นในคณิตศาสตร์ แต่ยังสร้างการตอบสนองโดยเฉลี่ย 1.5 เท่า โมเดล phi-4-mini-asining ได้รับการฝึกฝนแยกต่างหากในเดือนกุมภาพันธ์ 2024 บน
เพื่อรองรับโซ่การให้เหตุผลโดยละเอียดรุ่น 14B มีความจุบริบทเพิ่มขึ้นสองเท่าจากโทเค็น 16K ถึง 32K ของ Phi-4 เป็นสองเท่า Microsoft ยังแนะนำการตั้งค่าการอนุมานที่เฉพาะเจาะจง (เช่นอุณหภูมิ 0.8) เพื่อผลลัพธ์ที่ดีที่สุดด้วย phi-4-rosining-plus การเปิดตัวนับเป็นความต่อเนื่องของโครงการ PHI ของ Microsoft ซึ่งเริ่มได้รับความสนใจจากพารามิเตอร์ 14B ดั้งเดิม Phi-4 ในเดือนธันวาคม 2567 รุ่น PHI 4 เริ่มต้นนั้นได้รับการบันทึกไว้สำหรับประสิทธิภาพทางคณิตศาสตร์ที่แข็งแกร่ง Microsoft ติดตามด้วย PHI-4 ที่เปิดอย่างเต็มที่ในเดือนมกราคม 2568 ปล่อยน้ำหนักของมันบนใบหน้ากอดภายใต้ใบอนุญาต MIT ในเวลานั้นวิศวกร Microsoft Shital Shah โพสต์บน X,“ ผู้คนจำนวนมากกำลังขอน้ำหนัก… ไม่มีอีกต่อไป ครอบครัวเห็นการขยายตัวเพิ่มเติมในเดือนกุมภาพันธ์ 2568 ด้วยการเพิ่มโมเดลขนาดเล็กที่ใช้ข้อความที่แตกต่างกันและตัวแปร phi-4-multimodal รูปแบบการใช้เหตุผลในปัจจุบันสร้างโดยตรงบนเทคนิค SFT และข้อมูลสังเคราะห์ที่ใช้ก่อนหน้านี้ โมเดลเน้นกลยุทธ์ของ Microsoft ในการปลูกฝังแบบจำลองขนาดเล็กที่มีความสามารถสูง-มักเรียกว่าแบบจำลองภาษาขนาดเล็ก (SLMs)-ควบคู่ไปกับการลงทุนในซีรี่ส์ GPT ขนาดใหญ่ SLMS กำลังได้รับความสนใจในอุตสาหกรรมเนื่องจากข้อได้เปรียบที่อาจเกิดขึ้นเช่นค่าใช้จ่ายในการฝึกอบรมที่ลดลงและการปรับแต่งเฉพาะโดเมนที่ง่ายขึ้น วิธีการนี้กำหนดเป้าหมายประสิทธิภาพและการเข้าถึงซึ่งอาจลดอุปสรรคสำหรับองค์กรและนักพัฒนา Microsoft รวมโมเดล PHI เข้ากับระบบนิเวศเช่นตัวแปร PHI Silica ที่ได้รับการปรับให้เหมาะสมสำหรับ NPUs ใน Copilot+ PCS สำหรับการเข้าถึงที่กว้างขึ้น Phi-4-Mini-asoning ยังมีอยู่ใน หลักการ AI ที่รับผิดชอบ