Die in Peking ansässige Moonshot Ai hat am Freitag Kimi K2 veröffentlicht, eine Open-Source-AI-Modellserie, die darauf abzielt, die Marktführung im wettbewerbsintensiven KI-Sektor Chinas zurückzugewinnen. Der Start ist ein strategischer Schritt, um Konkurrenten wie Deepseek herauszufordern und weltweit mit US-amerikanischen Unternehmen zu konkurrieren. Es wurde speziell für „Agentic Intelligence“ entwickelt, sodass es autonom komplexe Aufgaben ausführen und digitale Tools verwenden kann. Moonshot betont die Fähigkeit von Kimi K2, zu handeln, nicht nur zu chatten und es als Mächtiges neues Tool für Entwickler . Moonshot AI wurde 2023 von Yang Zhilin, Absolvent der Tsinghua University, gegründet und erlangte schnell an Bedeutung, aber sein Marktplatz wurde kürzlich durch aggressive Schritte lokaler Wettbewerber herausgefordert. Dieser Start ist eine direkte und kraftvolle Antwort.

Ein strategisches Gambit in Chinas heftigen AI-Kriegen

Moonshots Nutzerbasis für seine Kimi-Anwendung verzeichnete zwischen August 2024 und Juni 2025 den Rangleiche von drittes auf das siebte in China. Dieser Rückgang folgte dem störenden Veröffentlichung von Niedrigkostmodellen von Rival Deequek. Die Kimi K2-Veröffentlichung ist ein klares Angebot, um diesen Trend umzukehren. Dieser Ansatz hilft, eine breite Entwicklergemeinschaft aufzubauen, und erweitert den globalen Einfluss und dient als starke Gegenmaßnahme gegen US-Technologiebeschränkungen. Es ist ein Gambit, durch Code Herzen und Verstand zu gewinnen. Dieser Schritt zielt darauf ab, Kimi als Anlaufstelle für Entwickler wiederherzustellen, und wetten, dass überlegene Fähigkeiten und ein offenes Ökosystem den Marktanteil zurückgewinnen können. Aufgaben. Die Ergebnisse zeigen die Wettbewerbsleistung in mehreren Schlüsselbereichen, einschließlich Codierung, Werkzeuggebrauch und komplexes Denken. Bei dem verifizierten Swe-Bench-Codierungstest der Agenten betrug die Genauigkeit von Einzelgründen 65,8%und legte sie über Deepseek-V3 von 38,8%und 54,6%der GPT-4,1, während die nachfolgenden Claude-Sonnet-4-Punktzahl von 72,7%. Bei der TAU2-Telekommunikationsaufgabe erzielte Kimi K2 65,8, was höher war als die gemeldeten Werte für GPT-4,1 (38,6) und Claude Sonnet 4 (45,2). Dies deutet auf eine starke Eignung für die Vernetzung mit externen Tools hin, um Ziele zu vervollständigen. Auf dem Benchmark von Aime 2024 mathematischer Wettbewerb war die Punktzahl von 69,6 höher als die von Gemini 2,5 Flash (61,3) und Claude Opus 4 (48,2). In ähnlicher Weise überschritt bei dem GPQA-Diamond-Argumentationstest die Punktzahl von 75,1 Claude Opus 4 von 74,9. Dies stellt es in enger Konkurrenz mit anderen Frontier-Modellen, wobei GPT-4,1 90,4 und Claude Opus 4 92,9 erzielen. Insgesamt deuten die Daten darauf hin, dass Kimi K2 ein sehr fähiges Modell ist, insbesondere in der Open-Source-Kategorie. href=”https://moonshotai.github.io/kimi-k2/”target=”_ leer”> 32 Milliarden werden für ein bestimmtes Token aktiviert . Diese Architektur, ähnlich der von Konkurrenz Deepseek-V3, ist für die Recheneffizienz im massiven Maßstab ausgelegt, ein Schlüsselfaktor für die praktische Bereitstellung. Es verfügt über 384 verschiedene Experten, wobei acht ausgewählt werden, um jedes Token zu verarbeiten, was eine hochspezialisierte und effiziente Berechnung ermöglicht. Dieses Design ist ein Ergebnis einer Skalierungs-Law-Analyse, die darauf abzielte, die Token-Effizienz zu maximieren. Um diesen Prozess ohne Misserfolg zu verwalten, entwickelte Moonshot einen neuartigen „Muonclip“-Optimierer. Diese Technik ist eine Entwicklung ihres frühere Arbeiten zum Mudeloptimierer , das den Standard-Adamw-Optimierer übertreibt. Logits”, die groß angelegte Modellentwicklung entgleisen können. Das Unternehmen berichtet, dass diese Methode es ihm ermöglicht hat, den gesamten 15,5-t-Token-Trainingslauf mit”Zero Training Spike”abzuschließen, wodurch seine Robustheit hervorgehoben wird. Dieses System simuliert reale Szenarien mit Tausenden von Tools, einschließlich derjenigen, die mit dem Modellkontextprotokoll (MCP) kompatibel sind, um qualitativ hochwertige, rubrikbasierte Trainingsdaten für die Verwendung von Werkzeugen zu generieren. Dies beinhaltet einen Selbsteinstellungsmechanismus, bei dem das Modell als eigener Kritiker fungiert, um Feedback zu Aufgaben mit nicht überprüfbaren Belohnungen zu geben, z. B. einen Bericht, ein entscheidender Schritt zur Entwicklung allgemeinerer und zuverlässigerer agentener Fähigkeiten. Zwei Versionen des Modells . Kimi-K2-Base ist das Grundmodell, das Forscher vorgesehen ist, die die volle Kontrolle über die Feinabstimmung benötigen. Kimi-K2-Instruktur ist eine für den Chat optimierte postkundige Version und als „Reflex-Grade-Modell ohne lange Denken“ für optimale Agentenaufgaben beschrieben. href=”https://platform.moonshot.ai/”target=”_ leer”> Entwickler-API und

Der Wert dieses Agentenansatzes wird bereits von Unternehmen validiert. In einem wegweisenden Schritt begann die Investment Bank Goldman Sachs gerade mit der Pilotierung autonomer KI-Coder Devin. Die Bank zielt darauf ab, eine „hybride Belegschaft“ zu bauen, in der ihre menschlichen Ingenieure Tausende von AI-Agenten überwachen. Unsere Belegschaft mit Devin, die wie unser neuer Mitarbeiter sein wird, der im Namen unserer Entwickler anfangen wird,”den menschlichen Fokus von mühsamer Kodierung bis hin zur Aufsicht auf hoher Ebene zu verlagern. Der breitere KI-Codierungsmarkt ist ein Schlachtfeld, in dem Google seinen Jules-Agenten und den kostenlosen Gemini CLI startet. OpenAI gab seinem Codex-Agenten-Internetzugang, obwohl CEO Sam Altman die Benutzer davor warnte, „die Risiken sorgfältig zu lesen und zu verwenden, wenn es sinnvoll ist“ und die inhärenten Risiken anzuerkennen. AnySphere, Hersteller des beliebten Cursor-AI-Editors, hat kürzlich eine Web-App gestartet, um seine Codierungsagenten von jedem Gerät aus zu verwalten. Diese Strategie mit mehreren Oberflächen zielt darauf ab, KI zu einem umgebenden, allgegenwärtigen Mitarbeiter zu machen.