นักวิจัย Zoom ได้แนะนำเทคนิคการแจ้งเตือนใหม่ที่เรียกว่า Chain of Draft (COD) ที่สามารถเปลี่ยนวิธีการแบบจำลองปัญญาประดิษฐ์ประมวลผลงานให้เหตุผลได้อย่างไร

โดยการคิดใหม่ว่า AI สร้างการตอบสนองได้อย่างไร COD ลดการใช้โทเค็นสูงสุด 92% แทนที่จะพึ่งพาคำอธิบาย verbose ดังที่เห็นในแบบจำลองการให้เหตุผล AI แบบดั้งเดิมวิธีนี้บังคับให้ AI มีโครงสร้างและมีประสิทธิภาพในขณะที่รักษาความแม่นยำ

การพัฒนานี้มาในเวลาที่แบบจำลองภาษาขนาดใหญ่ (LLM) src=”data: image/svg+xml; nitro-empty-id=mtcznto3mjy=-1; base64, phn2zyb2Awv3qm94psiwidagnzy3idqx NSIGD2LKDGG9IJC2NYIGAGVPZ2H0PSI0MTUIIHHTBG5ZPSJODHRWOI8VD3D3LNCZLM9YZY8YMDALL3N2ZYI+PC9ZDMC+”>>>

คำถามในขณะนี้คือเทคนิคเช่น COD จะมีอิทธิพลต่ออุตสาหกรรมที่กว้างขึ้นโดยเฉพาะอย่างยิ่งในฐานะผู้เล่นหลักเช่น Openai, Google, Microsoft และอื่น ๆ ต้องเผชิญกับแรงกดดันในการติดตั้งเพื่อลดค่าใช้จ่าย

วิธีการร่างของร่าง

กลยุทธ์การแจ้งเตือน ออกแบบมาเพื่อปรับปรุงประสิทธิภาพในการใช้เหตุผล AI ในขณะที่ลดค่าใช้จ่ายในการคำนวณ มันสร้างขึ้นบนสายโซ่แห่งความคิด (COT) ซึ่งกระตุ้นให้โมเดลภาษาขนาดใหญ่ (LLMS) ทำลายปัญหาที่ซับซ้อนออกเป็นคำอธิบายหลายขั้นตอน

ในขณะที่ COT ได้พิสูจน์แล้วว่ามีประสิทธิภาพในการปรับปรุงการใช้เหตุผลเชิงตรรกะ COD พยายามที่จะจัดการกับความไร้ประสิทธิภาพเหล่านี้โดยการบังคับใช้วิธีการมินิมัลลิสต์ในขั้นตอนการให้เหตุผลระดับกลาง

หลักการหลักที่อยู่เบื้องหลัง COD คือการเลียนแบบวิธีการประมวลผลข้อมูลของมนุษย์เมื่อแก้ปัญหาที่ซับซ้อน แทนที่จะสร้างคำอธิบายโดยละเอียดในทุกขั้นตอน COD สั่งให้โมเดลสร้างผลลัพธ์ระดับกลางที่จำเป็นเท่านั้น-ทำให้บุคคลนั้นอาจจดบันทึกคีย์คีย์เพียงเล็กน้อยในขณะที่ทำงานผ่านปัญหา ความรัดกุมที่มีโครงสร้างนี้ช่วยให้ LLM สามารถรักษาความแม่นยำเชิงตรรกะในขณะที่ลดการสร้างโทเค็นที่ไม่จำเป็นอย่างมาก

ซึ่งแตกต่างจากเทคนิคที่เน้นประสิทธิภาพก่อนหน้านี้เช่น ความคิดที่กระชับ (ccot) มันใช้ข้อ จำกัด แบบไดนามิกต่อขั้นตอนซึ่งช่วยให้ขั้นตอนการให้เหตุผลแบบไม่ จำกัด ในขณะที่ยังคงความกระชับโดยรวม

ทำไมประสิทธิภาพของ AI จึงมีความสำคัญมากกว่าที่เคย

AI พึ่งพาโทเค็น-หน่วยพื้นฐานของการประมวลผลข้อความ ยิ่งโมเดลใช้โทเค็นมากเท่าไหร่ค่าใช้จ่ายในการใช้งานที่สูงขึ้น

เทคนิคเช่นโซ่แห่งความคิด (COT) ได้รับการพัฒนาเพื่อปรับปรุงความสามารถของ AI ในการจัดการงานที่ซับซ้อนโดยการสนับสนุนการใช้เหตุผลทีละขั้นตอน อย่างไรก็ตามวิธีการนี้เพิ่มการใช้โทเค็นอย่างมีนัยสำคัญทำให้การดำเนินงานของ AI มีราคาแพงขึ้นเรื่อย ๆ

วิธี COD ของ Zoom แนะนำกลยุทธ์ที่แตกต่างกัน แทนที่จะให้ AI เป็นข้อต่อทุกขั้นตอนด้วยความว่องไวมากเกินไป COD เพิ่มประสิทธิภาพโครงสร้างของการตอบสนองเพื่อให้มั่นใจถึงความลึกเชิงตรรกะในขณะที่ลดผลลัพธ์ที่ไม่จำเป็น

ความหมายของสิ่งนี้อาจกว้างใหญ่โดยเฉพาะอย่างยิ่งสำหรับอุตสาหกรรมที่ขึ้นอยู่กับการขับเคลื่อนอัตโนมัติ ประสิทธิภาพ

การเปรียบเทียบอย่างกว้างขวางได้แสดงให้เห็นว่า COD สามารถจับคู่หรือเกินความแม่นยำในขณะที่ลดการใช้โทเค็นอย่างมาก ในการทดลองในการคำนวณทางคณิตศาสตร์แบบทั่วไปและการใช้เหตุผลเชิงสัญลักษณ์ COD ที่ใช้เพียง 7.6% ของโทเค็นที่ต้องการโดย COT การลดค่าใช้จ่ายในการคำนวณอย่างมีนัยสำคัญ

ศักยภาพในการมีอิทธิพลต่อกลยุทธ์การปรับใช้ AI ในหลายโดเมนโดยเฉพาะอย่างยิ่งในพื้นที่ที่ประสิทธิภาพด้านต้นทุนและการลดเวลาแฝงเป็นข้อกังวลที่สำคัญ

เอกสารการวิจัยซูมนำเสนอการประเมินเชิงประจักษ์ในหลายหมวดหมู่งานเผยให้เห็นว่า Cod ทำงานได้อย่างไร ชุดข้อมูลสำหรับการประเมินการใช้เหตุผลทางคณิตศาสตร์ในแบบจำลองภาษา ผลการวิจัยพบว่าในขณะที่ COT บรรลุความแม่นยำสูงขึ้นเล็กน้อย แต่ก็มีค่าใช้จ่ายในการคำนวณจำนวนมาก ในทางตรงกันข้าม COD ให้ระดับความถูกต้องใกล้เคียงกันในขณะที่ลดการใช้โทเค็นลงอย่างมาก

แหล่งที่มา: ซูม

สำหรับการใช้เหตุผลแบบคอมมิวนิสต์ COD ได้รับการประเมินในวันที่ความเข้าใจและการทำความเข้าใจกีฬาของ Big-Bench ผลลัพธ์แสดงให้เห็นว่า COD ไม่เพียง แต่ลดความต้องการการคำนวณ แต่ยังมีประสิทธิภาพสูงกว่า COT ในบางกรณีแสดงให้เห็นถึงประสิทธิภาพในการใช้งานจริง

แหล่งที่มา: Zoom

งานการใช้เหตุผลเชิงสัญลักษณ์เช่นการทำนายการพลิกเหรียญการทดสอบประสิทธิภาพของ COD ในงานเชิงตรรกะที่มีโครงสร้างสูง การประเมินผลยืนยันการปรับปรุงประสิทธิภาพที่สำคัญ

ข้อ จำกัด เกี่ยวกับโมเดลขนาดเล็ก

ในขณะที่ COD พิสูจน์ได้ว่ามีประสิทธิภาพสูงใน LLM ขนาดใหญ่มันทำงานได้อย่างมีประสิทธิภาพน้อยลงในแบบจำลองขนาดเล็ก (พารามิเตอร์≤3b) เนื่องจากขาดการฝึกอบรม ผลลัพธ์ของ QWEN2.5 (1.5B และ 3B), LLAMA 3.2 (3B) และ ZOOM-SLM (2.3B) เน้นช่องว่างประสิทธิภาพที่สำคัญกว่าเมื่อเทียบกับ COT.

<ความกว้าง IMG="774"ความสูง="636"src="ข้อมูล: image/svg+xml; nitro-empty-id=mtc1nzoxmdgy-1; base64, phn2zyb2awv3qm94psiwidagnzc0idyzniig d2lkdgg9ijc3ncigagvpz2h0psi2mzyiihhtbg5zpsjodhrwoi8vd3d3lnczlm9yzy8ymdawl3n2zyi+pc9zdmc+"> แหล่งที่มา: Zoom

การค้นพบเหล่านี้ชี้ให้เห็นว่ารุ่นเล็ก ๆ ต้องการการปรับแต่งด้วยข้อมูลสไตล์ COD เพื่อใช้ประโยชน์จากประสิทธิภาพของประสิทธิภาพอย่างเต็มที่ หากไม่มีการปรับตัวการสูญเสียความแม่นยำจะเด่นชัดมากขึ้นการ จำกัด การบังคับใช้ของ COD สำหรับระบบ AI ที่มีน้ำหนักเบา

OpenAi ปรับกลยุทธ์โมเดล AI

ในขณะที่ บริษัท เช่น Zoom กำลังทำงาน เมื่อวันที่ 13 กุมภาพันธ์ 2568 บริษัท ประกาศว่าจะหยุดโมเดล O3 แบบสแตนด์อโลนที่ยังไม่ได้เผยแพร่และรวมความสามารถในการใช้เหตุผลที่มีโครงสร้างไว้ใน GPT-5

การตัดสินใจส่วนใหญ่เป็นการตอบสนองต่อการเพิ่มความสับสนในหมู่ผู้ใช้ GPT-5 เปลี่ยนโฟกัสจากตัวเลือกหลายรุ่นไปเป็นระบบ AI ที่มีความคล่องตัวมากขึ้น ก่อนที่จะเปิดตัวโมเดลพื้นฐานที่มีชื่อ Codename Orion คาดว่าจะได้รับการปล่อยตัวเป็น GPT-5

ประสิทธิภาพที่ไม่น่าเชื่อเมื่อเปรียบเทียบกับรูปแบบการให้เหตุผลที่ทันสมัยเช่น Onai ของ Openai, Grok 3 และ Claude 3.7 Sonnet 7, 2025

องค์กร โมเดล บริบท พารามิเตอร์ (B) อินพุต $/m เอาท์พุท $/m Pro Drop Humaneval AIME’24 SimpleBench โมเดล Openai O3128,000 ––-Proprietary87.70%–––-O3 กรรมสิทธิ์ 84.80%86.10%––– 80.00%46.4%Claude 3.7 Sonnet Xai Grok-3128,000 ––-เจ้าของ 84.60%–79.90%-93.30%Grok-3 Xai Grok-3 Mini128,000––– MINI OPENAI O3-MINI200,000– $ 1.10 $ 4.40 กรรมสิทธิ์ 79.70%86.90%––– 86.50%22.8%O3-MINI OPENAI O1-PRO128,000 ––-PROPRIETARY79.00%—86.00%O1-PRO OPONAI O1200,000– $ 15.00 กรรมสิทธิ์ 78.00%91.80%–– 88.10%83.30%40.1%O1 Google Gemini 2.0 Flash คิด 1,000,000 ––-กรรมสิทธิ์ 74.20%––– 73.30%30.7%Gemini 2.0 การคิดแฟลช Openai O1-Preview128 กรรมสิทธิ์ 73.30%90.80%–– 44.60%41.7%O1-Preview Deepseek Deepseek-R1131,072671 $ 0.55 $ 2.19 Open71.50%90.80%84.00%92.20%–79.80%30.9% Openaigpt-4.5128,000 ––– กรรมสิทธิ์ 71.4%90.0%–– 88.0%36.7%34.5%GPT-4.5 Claude 3.5 SONNET200,000– $ 3.00 $ 15.00 POPrietary67.20%90.40%77.60%87.60%87.60% 3.5 SONNET QWEN QWQ-32B-PREVIEW32,76832.5 $ 0.15 $ 0.20 OPEN65.20%–70.97%–50.00%QWQ-32B-PREVIEW Google GEMINI 2.0 FLASH1,048,576 –––––– O1-MINI128,000– $ 3.00 $ 12.00 Proprietary60.00%85.20%80.30%–92.40%70.00%18.1%O1-MINI DEEPSEEK-V3131,072671 $ 0.27 $ 1.10 OPEN59.10%88.50%750% Gemini 1.5 Pro2,097,152– $ 2.50 $ 10.00 กรรมสิทธิ์ 59.10%85.90%75.80%74.90%84.10%19.3%27.1%Gemini 1.5 Pro Microsoft Phi-416,00014.7 $ 0.07 $ 0.14 $ 0.14 Open56.10%84.80%70.40%75.50%82.60%Phi-4 Xai Grok-2128,000– $ 2.00 $ 10.00 กรรมสิทธิ์ 56.00%87.50%75.50%–88.40%22.7%Grok-2 Open GPT-4OO กรรมสิทธิ์ 53.60%88.00%74.70%–– 17.8%GPT-4O Google Gemini 1.5 Flash1,048,576– $ 0.15 $ 0.60 กรรมสิทธิ์ 51.00%78.90%67.30%–74.30%Gemini 1.5 MINI128,000 ––-กรรมสิทธิ์ 51.00%86.20%72.00%–85.70%GROK-2 META META LLAMA 3.1 405B CREYCTION128,000405 $ 0.90 $ 0.90 OPEL50.70%87.30%73.30%84.80%89.00%23.0% Cords128,00070 $ 0.20 $ 0.20 Open50.50%86.00%68.90%–88.40%19.9%Llama 3.3 70b สั่งการมานุษยวิทยา Claude 3 Opus200,000– $ 15.00 $ 75.00 Proprietary50.40%86.80%68.50%83.10% QWEN2.5 32B Corder131,07232.5–-Open49.50%83.30%69.00%–88.40%QWEN2.5 32B สั่ง QWEN QWEN2.5 72B แนะนำ 131,07272.7 $ 0.35 $ 0.40 OPEN49.00%–71.1.10 Openai GPT-4 Turbo128,000– $ 10.00 $ 30.00 Proprietary48.00%86.50%–86.00%87.10%GPT-4 Turbo Amazon Nova Pro300,000– $ 0.80 $ 3.20 Proprietary46.90%85.90%–85.40%89.00%NOVA $ 0.40 Open46.70%86.00%––– llama 3.2 90b แนะนำ Qwen Qwen2.5 14b แนะนำ 131,07214.7–-เปิด 45.50%79.70%63.70%–83.50%QWEN2.5 14B Open45.30%–66.30%–84.80%mistral ขนาดเล็ก 3 Qwen QWEN2 72B Cords131,07272–-เปิด 42.40%82.30%64.40%–86.00%QWEN2 72B สอน Amazon Nova Lite300,000– $ 0.06 $ 0.24 กรรมสิทธิ์ 42.00%80.50%–80.20%85.40%Nova Lite Meta Llama 3.1 70b Instruct128,00070 $ 0.20 $ 0.20 Open41.70%83.60%66.40%79.60%80.50%LLAMA 3.1 70B กรรมสิทธิ์ 41.60%–65.00%83.10%88.10%Claude 3.5 Haiku anthropic Claude 3 Sonnet200,000– $ 3.00 $ 15.00 Proprietary40.40%79.00%56.80%78.90%73.00% กรรมสิทธิ์ 40.20%82.00%–79.70%87.20%10.7%GPT-4O Mini Amazon Nova Micro128,000-$ 0.04 $ 0.14 Proprietary40.00%77.60%–79.30%81.10%Nova Micro Google Gemini 1.5 Flash 8B1,048,048,760% กรรมสิทธิ์ 38.40%–58.70%–– ราศีเมถุน 1.5 แฟลช 8B AI21 JAMBA 1.5 ขนาดใหญ่ 256,000398 $ 2.00 $ 8.00 Open36.90%81.20%53.50%–– Jamba 1.5 Microsoft ขนาดใหญ่ขนาดใหญ่ Microsoft ขนาดใหญ่ Phi-3.5-MoE-Instruct128,00060–-Open36.80%78.90%54.30%–70.70%Phi-3.5-Moe-Instruct Qwen Qwen2.5 7B Custred131,0727.6 $ 0.30 $ 0.30 $ 0.30 GROK-1.5128,000 ––– กรรมสิทธิ์ 35.90%81.30%51.00%–74.10%GROK-1.5 Openai GPT-432,768– $ 30.00 $ 60.00 $ 67.75-45.70%86.40%–80.90%67.00%25.1% $ 1.25 กรรมสิทธิ์ 33.30%75.20%–78.40%75.90%Claude 3 Haiku Meta Llama 3.2 11b Instruct128,00010.6 $ 0.06 $ 0.06 Open32.80%73.00%–– lam Open32.80%63.40%––– llama 3.2 3B สั่ง AI21 JAMBA 1.5 MINI256,14452 $ 0.20 $ 0.40 OPEN32.30%69.70%42.50%–– JAMBA 1.5 MINI OPENI GPT-3.5 Proprietary30.80%69.80%–70.20%68.00%GPT-3.5 Turbo Meta Llama 3.1 8B Corder131,0728 $ 0.03 $ 0.03 OPEN30.40%69.40%48.30%59.50%72.60%LLAMA 3.1 8B Open30.40%69.00%47.40%–62.80%Phi-3.5-mini-Instruct Google Gemini 1.0 Pro32,760– $ 0.50 $ 1.50 Proprietary27.90%71.80%–– Gemini 1.0 Pro Qwen Qwen2 7B 7B คำแนะนำ 131,0727.6––Open25.30%70.50%44.10%–– QWEN2 7B สั่งการ mistral codestral-22B32,76822.2 $ 0.20 $ 0.60 เปิด—-81.10%codestral-22B coans coans cover R+ 128,000104 $ 0.25 $ 0.25 $ 0.25 DEEPSEEK-V2.58,192236 $ 0.14 $ 0.28 OPEN-80.40%–89.00%DEEPSEEK-V2.5 Google GEMMA 2 27B8,19227.2–-Open-75.20%-51.80%Gemma 2 27B GEMMA 29B8929. 2 9B XAI GROK-1.5V128,000 ––– ซึ่งเป็นกรรมสิทธิ์ ––––-GROK-1.5V Moonshotai Kimi-K1.5128,000 ––– ซึ่งเป็นกรรมสิทธิ์-87.40%––-Kimi-K1.5 NVIDIA LLAMA 70b สั่งการ Mistral Ministral 8B Corder128,0008 $ 0.10 $ 0.10 OPEN-65.00%–– 34.80%MINITRAL 8B สั่งการ mistral mistral ขนาดใหญ่ 2128,000123 $ 2.00 $ 6.00-84.00%-92.00%22.5%MISTRAL ขนาดใหญ่ Open-68.00%––-Mistral NEMO สั่งให้ mistral mistral small32,76822 $ 0.20 $ 0.60 เปิด—–microsoft ขนาดเล็ก Microsoft Phi-3.5-vision-Instruct128,0004.2–-Open——–3.5-visruct Open-69.20%–– 72.00%PIXTRAL-12B MISTRAL PIXTRAL ขนาดใหญ่ 128,000124 $ 2.00 $ 6.00 เปิด—––-Pixtral QWEN QVQ-72B-PREVIEW32,76873 Cords128,00032 $ 0.09 $ 0.09 OPEN-75.10%50.40%–92.70%QWEN2.5-CODER 32B สั่ง QWEN QWEN2.5-CODER 7B แนะนำ 128,0007–-Open-67.60%40.10%–88.40 QWEN2-VL-72B-Instruct32,76873.4––Open –––––––––– QWEN2-VL-72B-Instruct

Microsoft เสนอการใช้เหตุผล AI ขั้นสูงที่สูงขึ้น เมื่อเร็ว ๆ นี้ Microsoft ประกาศว่าผู้ช่วย Copilot จะเสนอ Oni-mini-high ของ Openai ฟรีโดยไม่ต้องลบ paywall ที่เคยมีการ จำกัด การเข้าถึงรูปแบบการให้เหตุผลขั้นสูงก่อนหน้านี้

ก่อนที่จะมีการเปิดตัวของ OpenAI สร้างรายได้จากรุ่น AI ที่มีความสามารถมากที่สุด การเปลี่ยนแปลงนี้ยังเน้นว่าทำไมการพัฒนาประสิทธิภาพเช่น COD ของ Zoom จึงมีความเกี่ยวข้องมากขึ้น

การเคลื่อนไหวของ Deepseek อย่างรวดเร็วเพื่อท้าทาย Openai

ในขณะเดียวกันการแข่งขันในพื้นที่ AI ยังคงทวีความรุนแรงมากขึ้น เมื่อวันที่ 26 กุมภาพันธ์ 2568 Lab จีน AI Deepseek ประกาศว่าได้เร่งการเปิดตัวรุ่น R2 เดิมทีกำหนดไว้สำหรับเดือนพฤษภาคม 2568 การเปิดตัวของโมเดลถูกย้ายขึ้นไปเพื่อตอบโต้การปกครองของ Openai, Alibaba และ Google.

การเพิ่มขึ้นของ Deepseek นั้นใกล้เคียงกับการพัฒนา AI ในประเทศจีน อย่างไรก็ตาม บริษัท เผชิญกับความท้าทายนอกเหนือจากการแข่งขัน

หลังจากความสำเร็จที่น่าประหลาดใจของ Deepseek ด้วยรูปแบบการใช้เหตุผล R1 ชาวจีนอื่น ๆ ได้รายงานว่าการสะสมโปรเซสเซอร์ H20 ของ Nvidia เนื่องจากการคว่ำบาตรการค้าของสหรัฐฯ

ในขณะที่ Openai และ Deepseek ปรับแต่งกลยุทธ์การใช้เหตุผล AI ของพวกเขา บริษัท อื่น ๆ กำลังมุ่งเน้นไปที่วิธีการลดต้นทุนที่แตกต่างกัน

Alibaba เพิ่งแนะนำ QWQ-32B แบบจำลอง AI โอเพนซอร์ซที่ออกแบบมาเพื่อให้การให้เหตุผลที่มีประสิทธิภาพสูง การเปิดตัวตำแหน่งอาลีบาบาในฐานะคู่แข่งโดยตรงของ OpenAI และ Deepseek โดยเฉพาะอย่างยิ่งสำหรับธุรกิจที่กำลังมองหาโซลูชั่น AI ราคาไม่แพง

Amazon รายงานว่าเข้าสู่การแข่งขัน AI ประสิทธิภาพ แต่มีกลยุทธ์ที่แตกต่างกัน บริษัท กำลังพัฒนา Nova AI ซึ่งเป็นแบบจำลองที่เป็นกรรมสิทธิ์คาดว่าจะเปิดตัวภายในเดือนมิถุนายน 2568

ซึ่งแตกต่างจากวิธีการโอเพนซอร์ซของอาลีบาบาอเมซอนกำลังรวม Nova AI เข้าสู่ AWS โดยตรง ค่าใช้จ่ายในการดำเนินงาน บริษัท กำลังทดลองใช้กลยุทธ์ที่แตกต่างกัน ไม่ว่าจะผ่านการกระตุ้นที่มีโครงสร้างของ COD โมเดลที่ได้รับการปรับปรุงของ Deepseek หรือทางเลือกที่เป็นมิตรกับต้นทุนของอาลีบาบา บริษัท AI กำลังดำเนินไปเกินขนาดของแบบจำลองที่แท้จริงและมุ่งเน้นไปที่ประสิทธิภาพในระยะยาว

Categories: IT Info