Anthropic verstärkt das AI-Kontextfenster-Rennen und verbessert sein Claude-Sonnet 4-Modell für 1 Million Token. jetzt in öffentlicher Beta , der Umzug setzt anthropisch in direktem Wettbewerb mit OpenAIs 400.000-Token-GPT-5-API-API und META. Analysieren Sie alle Codebasen oder großen Dokumente gleichzeitig. Dieser branchenweite Push kommt genauso wie jüngste Studien zur „Kontextfäut“-Modellleistung können sich mit langen Inputs verschlimmern und Fragen zur Strategie aufwerfen. href=”https://www.anthropic.com/news/1m-context”target=”_ leer”> offizielle anthropische API und Amazon Bedrock. Das Unternehmen hat auch bestätigt, dass die Funktion in Kürze bei der Vertex AI von Google Cloud und der Verfügbarkeit für Unternehmensentwickler erweitert wird. Anthropic positioniert diese Verbesserung für eine neue Klasse komplexer, datenintensiver Anwendungen, die zuvor unpraktisch waren. Für Entwickler bedeutet dies die Möglichkeit, eine groß angelegte Codeanalyse durch das Laden ganzer Codebasen durchzuführen, sodass das Modell die Projektarchitektur verstehen und quer-file-Abhängigkeiten identifiziert. Für Forscher und Analysten ermöglicht es die Synthese umfangreicher Dokumentsätze wie Rechtsverträge oder technische Spezifikationen, wobei der vollständige Kontext über Hunderte von Quellen aufrechterhalten wird. Es ermöglicht auch die Schaffung von anspruchsvolleren, kontextbezogenen Agenten, die die Kohärenz über Hunderte von Toolsaufrufen und mehrstufigen Workflows aufrechterhalten können. Bolt.New, ein Unternehmen, das Claude in seine browserbasierte Entwicklungsplattform integriert, hob die fortgesetzte Outperformance des Modells der Wettbewerber hervor. Eric Simons, der CEO und Mitbegründer des Unternehmens, erklärte: „Mit dem 1M-Kontextfenster können Entwickler nun an wesentlich größeren Projekten arbeiten und gleichzeitig die hohe Genauigkeit beibehalten, die wir für die Codierung der realen Welt beibehalten. Sean Ward, CEO und Mitbegründer von Igent AI, beschrieb das Update als grundlegende Verschiebung und stellte fest, dass es „echte Produktionskala-Technik-Multi-Day-Sessions zu Codebasen mit realer Welt ermöglicht. Die Wettbewerbslandschaft umfasst bereits Minimax in Singapur, die im Januar ein 4-Millionen-Token-Modell enthüllte und eine hohe Messlatte für die Branche festgelegt hat. Es umfasst auch Meta, dessen LLAMA 4 Scout-Modell eine Token-Kapazität von 10 Millionen bietet und die Grenzen der langkontextischen Verarbeitung noch weiter überschreitet. target=”_ leer”> Die Preisgestaltung für die neue Funktion ist abgestimmt . Für Eingabeaufforderungen bis zu 200.000 Token betragen die Kosten 3 pro Million Input-Token. Für größere Eingabeaufforderungen verdoppelt sich der Preis auf 6 pro Million Input-Token. Diese Struktur wurde entwickelt, um die erhöhte Rechenlast längerer Kontexte zu verwalten. Während die Webschnittstellen kleinere Grenzen haben, bietet die GPT-5-API ein maximales Kontextfenster von 400.000 Token. Diese Top-Stufe ist ausschließlich für API-Benutzer reserviert und zielt auf Entwickler reserviert, die Anwendungen erstellen, die eine tiefe Dokumentanalyse erfordern. Googles Gemini 2.5 Pro unterstützt ein Kontextfenster von bis zu 1 Million Token.
Das Problem der”Kontextfäulchen”: Ist immer größer? In einem kürzlich durchgeführten Bericht von Chroma Research wurde das Konzept der „Kontextfäulchen“ eingeführt, die die Erzählung „Größer ist besser“ in Frage stellte. Stattdessen wurden 18 führende LLMs auf ihre Fähigkeit getestet, aus semantisch verwandten Informationen Schlussfolgerungen zu ziehen, eine viel schwierigere Aufgabe. Die Forscher stellten fest: „Wir zeigen, dass sich die Modellleistung selbst unter diesen minimalen Bedingungen mit zunehmender Eingangslänge auf überraschende und ungleichmäßige Weise zunimmt. Die Studie ergab auch, dass GPT-Modelle dazu neigten, falsche Antworten zu halluzinieren, während Claude-Modelle sich oft weigerten, bei der Mehrdeutigkeit zu antworten. Diese Ergebnisse sind nicht isoliert. In einer gemeinsamen Studie von Microsoft und Salesforce wurde ein Leistungsrückgang der langen, mehreren Turn-Gespräche um 39% erzielt. METAs Lama 4, trotz seines 10-Millionen-Token-Fensters, hat sich Berichten zufolge mit lang Kontext-Benchmarks zu kämpfen. Dies hat einige, wie der KI-Forscher Gary Marcus, dazu veranlasst, den gesamten Ansatz in Frage zu stellen. Er argumentierte: „Niemand mit intellektueller Integrität kann immer noch glauben, dass reine Skalierung uns zu Agi bringen wird.“
Categories: IT Info