Zoom-Forscher haben eine neue Angabe-Technik namens Kette von Entwurfs (COD) eingeführt, die grundlegend ändern könnte, wie künstliche Intelligenzmodelle die Argumentationsaufgaben verarbeiten. Anstatt sich auf ausführliche Erklärungen zu verlassen, wie in traditionellen KI-Argumentationsmodellen zu sehen ist, zwingt diese Methode AI, gleichzeitig strukturiert und effizient zu sein und gleichzeitig die Genauigkeit aufrechtzuerhalten. src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mtcznto3njk=-1; Base64, Phn2zyb2AWV3QM94psiwidagnzy3IDQX NSIGD2LKDGG9IJC2NYIGAGVPZ2H0PSI0MTUIIHHTBG5ZPSJODHRWOI8VD3D3LNCZLM9YYZY8YMDAWL3N2ZYI+PC9ZDMC+”>
Die Frage ist nun, ob Techniken wie COD die breitere Branche beeinflussen, insbesondere wenn Hauptakteure wie OpenAI, Google, Microsoft und andere dem Montagedruck ausgesetzt sind, um die Kosten zu senken. Strategie zur Verbesserung der Effizienz im KI-Argumentieren und gleichzeitig reduzierter Rechenaufwand. Es baut auf der Kette von Gedanken (COT) auf, die große Sprachmodelle (LLMs) dazu ermutigt, komplexe Probleme in mehrstufige Erklärungen aufzuteilen. Cod versucht, diese Ineffizienzen anzugehen, indem ein minimalistischer Ansatz für intermediäre Argumentationsschritte erzwungen werden. Anstatt bei jedem Schritt detaillierte Erklärungen zu generieren, weist COD das Modell an, nur wesentliche Zwischenergebnisse zu erzielen. Diese strukturierte Übersicht ermöglicht es LLMs, die logische Genauigkeit aufrechtzuerhalten und gleichzeitig die unnötige Token-Erzeugung drastisch zu reduzieren. (CCOT) oder token-budget-fare-argumentation, stützt sich COD nicht auf vorbestimmte Token-Budgets für eine ganze Aufgabe. Stattdessen wendet es eine dynamische, pro-Schritt-Einschränkung an, die uneingeschränkte Argumentationsschritte ermöglicht und gleichzeitig die Gesamtzuversicht
behält, warum die Effizienz von AI wichtiger als je zuvor von
AI-Modelle auf Token beruhen-die grundlegenden Einheiten der Textverarbeitung-, um Reaktionen zu erzeugen-, um Reaktionen zu erzeugen. Je mehr Token ein Modell verwendet, desto höher sind die Betriebskosten.
-Techniken wie Denkkette (COT) wurden entwickelt, um die Fähigkeit der KI zu verbessern, komplexe Aufgaben zu erledigen, indem sie schrittweise Argumentation fördert. Dieser Ansatz erhöht jedoch signifikant die Nutzung des Tokens und macht die KI-Operationen zunehmend teuer. Anstatt jeden Schritt mit übermäßiger Ausführlichkeit zu artikulieren, optimiert Kabeljau die Struktur der Reaktionen und sorgt dafür, dass die logische Tiefe unnötige Ausgabe minimiert.
Umfangreiches Benchmarking hat gezeigt, dass Kabeljau die Genauigkeit mit dem COT übereinstimmen oder gleichzeitig die Nutzung des Tokens drastisch reduziert. In Experimenten über arithmetische, symbolische und symbolische Argumentationsaufgaben verwendete Kabeljau nur 7,6% der von COT erforderlichen Token, wobei die Rechenkosten signifikant senkten. Potenzial, die AI-Bereitstellungsstrategien über mehrere Domänen hinweg zu beeinflussen, insbesondere in Bereichen, in denen Kosteneffizienz und Latenzreduzierung wichtige Anliegen sind. Datensatz zur Bewertung des arithmetischen Denkens in Sprachmodellen. Die Ergebnisse deuten darauf hin, dass COT zwar eine etwas höhere Genauigkeit erreicht, dies jedoch zu massiven Rechenkosten. Im Gegensatz dazu bietet COD ein nahezu äquivalentes Maß an Korrektheit und senkt den Token-Verbrauch drastisch. Die Ergebnisse zeigen, dass COD nicht nur die Rechenanforderungen reduziert, sondern in bestimmten Fällen auch COT übertrifft, was seine Wirksamkeit in praktischen Anwendungen demonstriert. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mtc0MjoxMta1-1; Base64, Phn2ZyB2AWV3QM94psiwidagody0Idqxniig d2lkdgg9ijg2ncigagvpz2h0psi0Mtyiihhtbg5zpsjodhrwoi8vd3d3lnczlm9yzy8ymdawl3n2zyi+pc9zdmc+”> Quelle: Zoom
symbolische Argumentationsaufgaben wie die Vorhersage von Münzen, die die Wirksamkeit von COD in hochstrukturierten logischen Aufgaben getestet haben. Die Bewertung bestätigte erhebliche Effizienzverbesserungen. Die Ergebnisse auf QWEN2.5 (1,5B und 3B), LAMA 3.2 (3B) und Zoom-SLM (2,3B) unterstreichen eine signifikantere Leistungslücke im Vergleich zu COT.
Quelle: Zoom
Diese Ergebnisse deuten darauf hin, dass kleine Modelle eine Feinabstimmung mit Daten im CSB-Stil erfordern, um die Effizienzvorteile vollständig zu nutzen. Ohne Anpassung wird der Genauigkeitsverlust stärker und begrenzt die sofortige Anwendbarkeit von COD für leichte AI-Systeme. Am 13. Februar 2025 kündigte das Unternehmen an, sein unveröffentlichtes eigenständiges O3-Modell einzustellen und seine strukturierten Argumentationsfähigkeiten in GPT-5 zu konsolidieren. GPT-5, wechseln Sie den Fokus von mehreren Modelloptionen auf ein optimierteres KI-System. Vor seiner Veröffentlichung wurde erwartet, dass das zugrunde liegende Modell mit dem Codenamen Orion als GPT-5 veröffentlicht wurde. Microsoft machte einen entscheidenden Schritt, in dem das Geschäftsmodell von OpenAI weiter unter Druck gesetzt wurde. Microsoft kündigte kürzlich an, dass sein Copilot-Assistent nun kostenlos OpenAIs O3-Mini-High anbieten würde und eine Paywall entfernen würde, die zuvor nur begrenzten Zugriff auf das fortschrittlichere Argumentationsmodell hatte. Seine fähigsten KI-Modelle. Diese Verschiebung unterstreicht auch, warum die Durchbrüche von Effizienz wie Zoom von Zoom immer relevanter werden. Am 26. Februar 2025 kündigte das chinesische AI Lab Deepseek an, die Veröffentlichung seines R2-Modells zu beschleunigen. Ursprünglich für Mai 2025 geplant, wurde der Start des Modells auf die Dominanz von Openai, Alibaba und Google entgegengesetzt. Das Unternehmen steht jedoch vor Herausforderungen, die über den Wettbewerb hinausgehen.
Während OpenAI und Deepseek ihre KI-Argumentationsstrategien verfeinern, konzentrieren sich andere Unternehmen auf verschiedene Ansätze zur Kostenreduktion. Die Veröffentlichung ist Alibaba als direkter Konkurrent von Openai und Deepseek, insbesondere für Unternehmen, die nach erschwinglichen AI-Lösungen suchen. Das Unternehmen entwickelt Nova AI, ein proprietäres Modell, das voraussichtlich bis Juni 2025 starten wird.
Im Gegensatz zu Alibabas Open-Source-Ansatz integriert Amazon Nova AI direkt in AWS, um seine AI-Cloud-Service-Angebote zu stärken, und höchstwahrscheinlich den gerechten gezahlten Plan für die Alexa-Voice-Associng-Kosten für Alexa-Alexa-Alexa-. Unternehmen experimentieren mit unterschiedlichen Strategien. Ob durch die strukturierte Aufforderung von COD, die optimierten Modelle von Deepseek oder die kostengünstigen Alternativen von Alibaba, KI-Unternehmen bewegen sich über die bloße Modellgröße hinaus und konzentrieren sich auf die langfristige Effizienz. Organisation Modell Kontext Parameter (b) Eingabe $/m Ausgabe $/m Lizenz gpqa mmlu mmlu mmlu mmlu mmlu mmlu mmlu mmlu mmlu ProDROPHumanEvalAIME’24SimpleBenchModel openai o3128,000–––Proprietary87.70%––––o3 anthropic Claude 3.7 Sonnet200,000–$3.00 $15.00 Proprietary84.80%86,10%–––––80,00%46,4%Claude 3,7 Sonnet XAI GROK-3128.000 ––––– Proprietary84.60%–79,90%––93,30%GROK-3 XAI GROK-3 MINI128.000 ––––––––––––––18. o3-mini200.000– $ 1,10 $ 4,40 proprietary 79.70%86,90%$–– 86,50%22,8%O3-mini OpenAI O1-PRO 128.000 –––-Proprietary 79,00%––– 86,00%O1-Pro Openai O1200.000-$ 15.00 $ 60,00 $ 60,00 $ 60,00 $ 60,00 $ 60,00 $ 60.00 Proprietary78.00%91,80%––88,10%83,30%40,1%O1 Google Gemini 2,0 Flash-Denken 1.000.000 –––– proprietary 74.20%––– 73,30%30,7%Gemini 2,0 Flash Think OpenAI O1-Preview128.000– $ 15.00 $ 60,00 $ 60,00 $ $ 60,00 $ $ $ 60,00 $ $ 60,00 $ $ 60,00 $ $ 60,00 $ $ 60,00 $ $ 60,00 $ 60,00 $ $ 60,00 $ $ 60,00 $ 60,00 $ $ 60,00 $ $ 60,00 $ 60,00 $ 60,00 $ 60,00 $ 60,00 $ $ 60.00 $ $ 60.00 $ 60.00 Proprietary73.30%90,80%–––––– 44,60%41,7%O1-Präview Deepeek Deepseek-R1131.072671 $ 0,55 $ 2,19 Open71,50%90,80%84,00%92,20%-79,80%30,9%Deekseek-R1-R1 openaiGPT-4.5128,000–––Proprietary71.4%90.0%––88.0%36.7%34.5%GPT-4.5 anthropic Claude 3.5 Sonnet200,000–$3.00 $15.00 Proprietary67.20%90.40%77.60%87.10%93.70%16.00%41.4%Claude 3.5 Sonnet QWEN QWQ-32B-PREVIEW32.76832,5 $ 0,15 $ 0.20 OPKE 65,20%–70,97%~ 50,00%QWQ-32B-PREVVIEW GOOGLE GEGELI 2,0 FLASH1,0,048,576–ProPrietary62.10%–76,40%-35,5%18.90%–76,40%––––––––––––––––––––––––––––action –––––––––––––––––––––––––––act. O1-Mini128.000– $ 3,00 $ 12.00 Proprietary60,00%85,20%80,30%$ $ $ Gemini 1.5 Pro2,097,152–$2.50 $10.00 Proprietary59.10%85.90%75.80%74.90%84.10%19.3%27.1%Gemini 1.5 Pro microsoft Phi-416,00014.7$0.07 $0.14 Open56.10%84.80%70.40%75.50%82.60%Phi-4 xai GROK-2128.000– $ 2,00 $ 10,00 Proprietary56,00%87,50%75,50%$ $ 22,7%GROK-2 OpenAI GPT-4O128.000– $ 0,60 Proprietary51.00%78,90%67,30%–74,30%Gemini 1,5 Flash XAI GROK-2 MINI128.000 –––– proprietary51,00%86,20%72,00%–85,70%GROK-2 MINI META LLAMA 305 BRUCTION128.000405 $ 0,90 $ 0,90 $ 0,90 $ 0,905 $ 0,90 $ 0,905 $ 0,90 $ 0,90 $ 0,90 $ Open50,70%87,30%73,30%84,80%89,00%23,0%Lama 3,1 405b Meta LLAMA 3,3 70B anweisen128.00070 $ 0,20 $ 0,20 Open50,50%86,00%68.90%$ & supmin; $ 19,9%llama 3,3 70%70BORCTE LESTUCT ANTHROPIC-APUS2-$ LLAMAH. $75.00 Proprietary50.40%86.80%68.50%83.10%84.90%23.5%Claude 3 Opus qwen Qwen2.5 32B Instruct131,07232.5––Open49.50%83.30%69.00%–88.40%Qwen2.5 32B Instruct qwen Qwen2.5 72B Anweisung131.07272,7 $ 0,35 $ 0,40 Open49.00%–71,10%$ $ $ $ $ 3,20 proprietary46,90%85,90%–85,40%89,00%Nova Pro Meta LLAMA 3,2 90B Anweisung128.00090 $ 0,35 $ 0,40 Open46,70%86,00%––– LLAMA 3,2 90B QWEN QWEN 2,5 14B 14B 14B 14B 14B 14B 14B 14b 14b 14b 14b 14b 14b 14b 14b 14b 14b. Anweisung131.07214,7–OPEN45,50%79,70%63,70%–83,50%QWEN 2,5 14B anweisen. Anweisung131.07272–OPEN42.40%82,30%64,40%–86,00%QWEN2 72B Amazon Nova Lite300.000-$ 0,06 $ 0,24 ProPrietary42,00%80,50%–80,20%85,40%0,24 Nova Lite Meta llama Open41.70%83.60%66.40%79.60%80.50%Llama 3.1 70B Instruct anthropic Claude 3.5 Haiku200,000–$0.10 $0.50 Proprietary41.60%–65.00%83.10%88.10%Claude 3.5 Haiku anthropic Claude 3 Sonnet200,000–$3.00 $15.00 Proprietary40,40%79,00%56,80%78,90%73,00%Claude 3 Sonnet Openai GPT-4O mini128.000-0,15 USD 0,60 $ proprietary40,20%82,00%–79,70%87,20%10,7%GPT-4o mini Amazon Amazon Nova Micro128.000-$ 0.14o mini mini Proprietary40.00%77.60%–79.30%81.10%Nova Micro google Gemini 1.5 Flash 8B1,048,5768$0.07 $0.30 Proprietary38.40%–58.70%––Gemini 1.5 Flash 8B ai21 Jamba 1.5 Large256,000398$2.00 $8.00 Open36,90%81,20%53,50%––– Jamba 1,5 großer Microsoft-Phi-3,5-MOE-Instruct128.00060-Open36,80%78,90%54,30%–70,70%Phi-3,5-Moe-Instruct qwen qwen2.5 7b Instruct13131,0727.6 $ 0.30 $ 0.30 $ 0.30 $ 0,30 $ 0,30 $ 0,30 $ 0,30 $ 0,30 $ 0,30 $ 0,30 $ 0.30 $ Open36.40%–56.30%–84.80%Qwen2.5 7B Instruct xai Grok-1.5128,000–––Proprietary35.90%81.30%51.00%–74.10%Grok-1.5 openai GPT-432,768–$30.00 $60.00 Proprietary35,70%86,40%–80,90%67,00%25,1%GPT-4 Anthropic Claude 3 Haiku200.000-0,25 $ 1,25 $ 1,25 proprietary33,30%75,20%–78,40%75,90%claude 3 Haiku meta llama Open32,80%73,00%––– Lama 3,2 11b Meta LLAMA 3,2 3B unterrichtet128.0003,2 $ 0,01 $ 0,02 Open32.80%63,40%$ $ Mini OpenAI GPT-3,5 Turbo16.385-0,50 $ 1,50 $ proprietary30,80%69,80%–70,20%68,00%GPT-3,5 Turbo meta llama 3.1 8b intruct131.0728 $ 0.03 $ 0,03 Open30,40%69,40%48,30%48,30%59.50%72.60%69,40%48,30%59,50%72.60%69,40%48,30%59,50%72.60%69,40%48,30%59,50%72.60%LLAM. microsoft Phi-3.5-mini-instruct128,0003.8$0.10 $0.10 Open30.40%69.00%47.40%–62.80%Phi-3.5-mini-instruct google Gemini 1.0 Pro32,760–$0.50 $1.50 Proprietary27.90%71.80%–––Gemini 1.0 Pro qwen Qwen2 7B Anweisung131.0727,6–OPEN25,30%70,50%44,10%-qwen2 7b anweisen. Deepseek-V2,58.192236 $ 0,14 $ 0,28 Open-80,40%-89,00%Deepseek-V2,5 Google Gemma 2 27b8.19227,2–2-Open-75,20%–– 51,80%Gemma 2 27b Google Gemma 2 9B8.1929,29292,2–2–192. 9B xai Grok-1.5V128,000–––Proprietary–––––Grok-1.5V moonshotai Kimi-k1.5128,000–––Proprietary–87.40%–––Kimi-k1.5 nvidia Llama 3.1 Nemotron 70B Instruct128,00070––Open–80.20%–––Llama 3.1 Nemotron 70B unterrichten Mistral Ministral 8B 8B 128.0008 $ 0,10 $ 0,10 Offene 65,00%-34,80%Ministral 8B. Open-68,00%––– Mistral Nemo lehren Mistral Mistral Mistral 32.76822 $ 0,20 $ 0,60 Open ––––-Mistral Small Microsoft PHI-3,5-Vision-Instruct128.0004,2-Open ––––––––-4 $-VISION-INSSTRUCT 0,15 $ 0,15 $ ° $ ° $ $ $-Rtral pixtral pixtral pixtral pixtral pixtral pixtral pixtral pix-12B12800012.15 $ ° $ ° C $ ° C $-Rtral pixtral pix-12b12800012.15 $ ° $ $-Rtral PIXTRAL-12B12800012. Open-69,20%–– 72,00%Pixtral-12b Mistral Pixtral Large128.000124 $ 2,00 $ 6.00 OPEN $–––––-Pixtral Large Qvq-72B-Preview32.76873.4-Open Unterrichten128.00032 $ 0,09 $ 0,09 Open-75,10%50,40%–92,70%QWEN 2,5-CODER 32B qwen qwen2.5-coder 7b unterricht QWEN2-VL-72B-INSTRUCT32,76873.4-Open –––– qwen2-vl-72b-instruct