Nach Wochen der Beschwerden von Benutzern und Spekulationen über einen Rückgang der Leistung seiner KI hat Anthropic seine Stille gebrochen. „Wir reduzieren die Modellqualität aufgrund von Nachfrage, Tageszeit oder Serverlast niemals. Die Probleme, die unsere Benutzer gemeldet haben, waren allein auf Infrastrukturfehler zurückzuführen. Die Plattform und hatte begonnen, Blanko Lose”> Bloße”> Lose nach Wochen der Befragungen und inkonstanten Antworten und inkonsistenten Reaktionen zu verlieren. Die Ankündigung bietet einen seltenen, transparenten Blick in die komplexe Infrastruktur, die für die Dienste von großer Sprachmodellen im Maßstab erforderlich ist. The first bug, a “context window routing error,”was introduced on August 5, initially affecting a mere 0.8% of Sonnet 4 requests, according to the company’s postmortem.

It incorrectly sent Abfragen zu Servern, die für ein zukünftiges 1M-Token-Kontextfenster konfiguriert sind. Das Problem wurde durch „Sticky Routing“ verstärkt, das die betroffenen Benutzer in Sitzungen mit den fehlerhaften Servern sperrte, wodurch sich die schlechte Leistung anhaltend anfühlte. Zuverlässigkeit der Plattform. Am 25. August wurden zwei weitere Fehler bereitgestellt. href=”https://cloud.google.com/tpu/docs/intro-to-tpu”target=”_ leer”> xla: TPU-Compiler . Ein Code-Umschreiben, der die Präzision in der Token-Probenahme verbesserte, löste versehentlich diesen Fehler aus. einzelne Ursache. In seinem Postmortem erklärte das Unternehmen, dass diese „Probleme kritische Lücken aufwiesen“. Die Bewertungen erfassten einfach nicht die spezifischen Fehler, die Benutzer gemeldet haben. Claude erholt sich oft gut von isolierten Fehlern, die die durch die zugrunde liegende Fehler verursachte systemische Drift effektiv maskierten. Diese Sicherheitsmessungen beschränken den Zugriff der Ingenieure auf Benutzerinteraktionen und verhindern, dass sie die spezifischen Aufforderungen und Gespräche, die zur Reproduktion von Fehler benötigt werden, leicht untersucht werden.

Dies ließ das Problem eher wie zufällige, inkonsistente Verschlechterung als eine Reihe von konkreten, verwandten Fehlern aussehen. Die Ingenieure haben die fehlerhafte Routing-Logik korrigiert, den Code, der die Ausgabeversorgung verursacht hat, zurückgerollt und von der buggy-approximate”Stichprobenmethode zu einem robusteren”exakten Top-K”-Operation umgestellt. Bewertungen, die so konzipiert sind, dass sie zwischen funktionierenden und gebrochenen Modellen besser unterscheiden. Entscheidend ist, dass diese Qualitätsüberprüfungen nun kontinuierlich auf seinen Live-Produktionssystemen durchführen, um in Echtzeit Fehler zu erfassen. im hyper-wettbewerbsintensiven KI-Wettrüsten. Für Anthropic sind die Einsätze besonders hoch, da sie als PaaS-Schicht (PaaS) über grundlegende Modelle hinausdrückt und direkter mit Cloud-und Software-Dienstanbietern konkurrieren. Veröffentlichungen wie die Agentic Claude 4-Modelle und Entwickler-fokussierte Tools wie Subagenten machen die Plattformzuverlässigkeit zu einem nicht verhandelbaren Merkmal. Von menschlich verwalteten KI-Flotten wird Realität, aber es hängt ganz von der Stabilität der zugrunde liegenden Werkzeuge ab. Während viele Entwickler in Foren wie Reddit die Firma für die Firma für die Firma lobten, lobten die Firma für die Firma. Der Wiederaufbau des Vertrauens einer professionellen Benutzerbasis erfordert eine nachhaltige Stabilität. Es erkennt die frustrierende Erfahrung des Benutzers an und bietet eine glaubwürdige, technische Erzählung für die Fehler. Das Unternehmen setzt darauf, dass diese Transparenz in Kombination mit seinen geplanten Verbesserungen ausreichen wird, um das Vertrauen in die Claude-Plattform wiederherzustellen.