Das QWEN-Team von Alibaba hat am Dienstag QWEN3-CODER veröffentlicht, eine leistungsstarke neue Reihe von Open-Source-KI-Codierungsmodellen, die direkt auf Konkurrenten wie Anthropic reichen. Die Modelle mit einer massiven Version von 480 Milliarden Parametern sind für „agentische“ Arbeiten konzipiert, sodass sie komplexe Softwareentwicklungsaufgaben autonom ausführen können. Legen Sie einen neuen Standard für offene Modelle ein. Der Start kommt jedoch auch inmitten der tiefen Skepsis der Industrie gegenüber AI-Benchmarks, die durch die jüngsten Vorwürfe angetrieben werden, dass ein weiterer von Alibabas eigenen Modellen bei den wichtigsten Leistungstests betrogen wurde. href=”https://huggingface.co/qwen/qwen3-coder-480b-a35b-instruct”target=”_ leer”> qwen3-coder-480b-a35b-Instruct , ein massives Gemisch-of-Experts-Modell (MOE). Es enthält 480 Milliarden Gesamtparameter, aktiviert jedoch nur eine Teilmenge von 35 Milliarden Parametern für eine bestimmte Aufgabe. Diese Architektur bietet immense Leistung bei der Aufrechterhaltung der Recheneffizienz.
Die Grundlage des Modells wurde auf kolossalen 7,5-Billionen-Token von Voraussetzungsdaten basiert, wobei ein Verhältnis von 70% speziell für den Code gewidmet war. Nach Angaben des QWEN-Teams war die Datenqualität von größter Bedeutung. Sie nutzten ein früheres Modell, Qwen2.5-Codierer, um laute Daten für diese neue Generation synthetisch zu reinigen und umzuschreiben. Das Modell verfügt über eine native Kontextlänge von 256.000, die mit Extrapolationsmethoden wie Garn auf eine Million Token erweitert werden kann. Diese riesige Kapazität ist auf das Verständnis im Auftragsmaßstab zugeschnitten, sodass die KI den vollen Kontext großer Softwareprojekte erfassen kann. Das Modell unterstützt eine Vielzahl von Programmiersprachen, von Mainstream-Auswahlmöglichkeiten wie C ++, Python und Java bis hin zu speziellen Sprachen wie ABAP, Rust und Swift, wie auf dem
Diese Veröffentlichung signalisiert Alibabas aggressives Schub in die nächste Grenze von AI: Agentic Intelligence. Die Branche bewegt sich schnell über einfache Code-Assistenten über autonome Agenten hinaus, die komplexe, mehrstufige Entwicklungsaufgaben ausführen, ausführen und an die Anpassung anpassen können. Qwen3-Codierer ist nicht nur ein neues Modell. Es ist ein strategischer Einstieg in dieses eskalierende „Wettrüsten“. Der Trend wird bereits im Unternehmen validiert. Die Investment Bank Goldman Sachs beispielsweise hat kürzlich damit begonnen, den KI-Agenten Devin zu steuern, um eine „hybride Belegschaft“ aufzubauen. Sein Technologiechef Marco Argenti beschrieb eine Zukunft, in der „es wirklich um Menschen und AIs geht, die nebeneinander arbeiten. Ingenieure werden voraussichtlich die Fähigkeit haben, Probleme auf kohärente Weise wirklich zu beschreiben…“, wechseln menschlicher Fokus von mühsamer Kodierung bis hin zu hochgradigem Problemauflösungen. In den USA hat Amazon kürzlich seinen Kiro-Agenten vorgestellt, um der chaotischen „Vibe-Codierung“ Struktur aufzuzwingen, während Google einen zweigleisigen Angriff mit seinem umfassenden Firebase Studio und einem kostenlosen Gemini CLI ausübt. OpenAI wird weiterhin seinen Codex-Agenten aufrüsten und kürzlich einen Internetzugang zum autonomen Finden und Gebrauch von Daten ermöglichen. QWEN3-CODER ist gegen Open-Source-Kraftwerke wie Moonshot AI positioniert, das kürzlich sein 1-Billion-Parameter-Kimi K2-Modell veröffentlicht hat. Diese häusliche Rivalität wird durch den geopolitischen Druck angeheizt, der chinesische Firmen zum Aufbau eigenständiger Ökosysteme zwingt. Der Coding-Startup Windsurf hat kürzlich Google seinen CEO und Top-Talent pochten, eine Lanned OpenAI-Akquisition versenkt und die konkurrierende Wahrnehmung ermöglicht, das verbleibende Unternehmen zu erwerben. In einem klaren Beispiel für diesen”Benchmark-Krieg”engagierte Elon Musks XAI kürzlich Auftragnehmer speziell, um sein GROK 4-Modell zu trainieren, um Anthropics Claude zu übertreffen. Die immensen Betriebskosten sind ebenfalls ein Faktor, wie es bei anthropischen Verschärfen von Nutzungsgrenzen für seine Premium-Abonnenten die finanzielle Belastung der Bereitstellung dieser leistungsstarken Dienstleistungen hervorhebt. Das Timing ist für Alibaba umständlich. Nur wenige Tage zuvor, am 18. Juli, Eine Studie der Fudan-Universität behauptete, ihr Qwen2.5-Modell habe das Modell mit dem Memonisations-Test”P>-Paper”-Mathe-Memonierungs-Top-Daten durch die Memonierungs-Top-Datentest”betrogen”. Argumentation. Diese Kontroverse unterstreicht das systemische Problem der Datenkontamination, bei dem Testfragen in Schulungssätze eindringen, die Leistung erhöhen und einen falschen Eindruck der wahren Fähigkeiten eines Modells erzeugen. Einige, wie der CEO von LMARena, Anastasios Angelopoulos, sehen es als normalen Teil der Entwicklung an und sagen: „Dies ist Teil des Standard-Workflows des Modelltrainings. Sie müssen Daten sammeln, um Ihr Modell zu verbessern.”Nate Jones bemerkte, dass der AI-Strategin feststellte: „In dem Moment, in dem wir die Dominanz von Ranglanken als Ziel festlegen, riskieren wir, Modelle zu schaffen, die sich in trivialen Übungen übertreffen und bei der Realität konfrontiert sind.”Dieses Gefühl wird von Experten wie Sara Hooker, Leiterin von Cohere Labs, wiederholt, die argumentierten: „Wenn eine Rangliste für ein ganzes Ökosystem wichtig ist, werden die Anreize für sie ausgerichtet, dass sie bei den Untersuchungen ein Risiko für Modelle erzeugt, die bei praktischen Aufgaben armlich geändert werden. Die Akzeptanz, Alibaba, veröffentlicht neben den Modellen eine Reihe von Werkzeugen. Das Unternehmen hat”Qwen Code”auf den Markt gebracht, eine Befehlszeilenschnittstelle, die von Googles Gemini CLI von Google entnommen und für die neuen Modelle angepasst wurde. Dies bietet Entwicklern eine fertige Umgebung für die Agentencodierung. Bemerkenswerterweise kann Qwen3-Coder verwendet werden. für den Gewinn der Loyalität der Entwickler. Indem seine leistungsstarken Modelle über mehrere Plattformen zugänglich gemacht werden, einschließlich eigene Modellstudio-API , ist Alibaba ein Wetten, dass die Nutzung die Einführung in die Einnahme vornimmt. QWEN3-235B-A22B-INSRECTRUCT-2507, was zeigt bedeutende Benchmark-Verbesserungen. Diese doppelte Veröffentlichung unterstreicht die umfassende Strategie von Alibaba, an allen Fronten des globalen AI-Wettrüstens zu konkurrieren.