Anthropic hat seine neue Flaggschiff-KI, Claude Opus 4.1, offiziell veröffentlicht, ein inkrementelles Upgrade, mit dem die Codierungs-und Argumentationsleistung gesteigert wurde. Das am 5. August eingeführte Modell ist jetzt bezahlten Benutzern und Entwicklern über Anthropics API, Amazon Bedrock und Googles Vertex AI. In seiner Systemkarte , befragt anthropische Aktualisierung das Update als bewusster, gemessener Schritt nach vorne. Es verbessert die Funktionen, ohne den „besonders leistungsfähigeren“ Schwellenwert zu überschreiten, der eine vollständige neue Sicherheitsüberprüfung auslösen würde. Die Preisgestaltung bleibt identisch mit seinem Vorgänger und signalisiert einen direkten Ersatz für Claude Opus 4 und eine Bewegung in Richtung Marktstabilität nach einer turbulenten Periode. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=MtyZntoxmzaz-1; Base64, Phn2zyb2AWV3QM94psiwidagmti4mca3mj Aiihdpzhropsixmjgwiibozwlnahq9ijcymcig1sbnm9imH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2zz4=”>

Ein gemessener Sprung in der Codierung und Argumentation

Die Überschriftsfunktion von Claude Opus 4.1 ist die erheblich verbesserte Leistung bei komplexen, hochwertigen Aufgaben, insbesondere diejenigen, die für Unternehmens-und Entwickler-Workflows von entscheidender Bedeutung sind. Anthropics Ankündigung trompeten sofort einen neuen staatof-art-art-Score von 74,5% auf dem Systemkarten-Addendum ist für diese Erzählung von zentraler Bedeutung. Es bestätigt, dass das Modell unter dem vorhandenen, vorsichtsreichen ASL-3-Sicherheitsstandard eingesetzt wird, der zunächst auf Claude 4 angewendet wird. Die Politik von Anthropic besagt: „Wenn ein neues oder bestehendes Modell unter dem Standard-Standard der„ besonders leistungsfähigeren “Standard liegt, sind keine weiteren Tests erforderlich, eine Klausel, die schnellere, iterative Verbesserungen ermöglicht. Produkte.”Anthropic versucht, einen nachhaltigeren Weg zu demonstrieren. Während die Zusammenarbeit mit „ungeheuerlichem menschlichem Missbrauch“ um etwa 25%sank, zeigte das Modell eine leichte Regression auf Belohnungs-Hacking-Aufgaben. Dies bedeutet, dass es anfälliger für die Suche nach cleveren Problemumgehungen ist, anstatt die Kernlogik eines Problems zu lösen. Dies hebt die laufenden Challenge-Labors auf, um sicherzustellen, dass Modelle den Geist und nicht nur den Buchstaben der Anweisungen eines Benutzers haften. Sein Vorgänger im Mai 2025, das durch die Entdeckung einer aufstrebenden „Whistleblowing“-Funktion beeinträchtigt wurde. Zu dieser Zeit stellte Anthrop klar klar, dass das Verhalten nur in stark kontrollierten Tests und nicht in normaler Verwendung beobachtet wurde.

gleichzeitig stellte das Unternehmen Opus 4 unter seine strengsten ASL-3-Sicherheitsprotokolle aufgrund identifizierter Bio-Riss. Der Chefwissenschaftler von Anthropic, Jared Kaplan, zu Zeit zu Zeit , als ihre Model-Model-modellierende „tägliche Aufgabe von tätigerem Versuch, dass es sich um eine Synthese-Synthese-Synthesize handelte. Seien Sie möglich. Es ist ein rechtzeitiger Schritt in einem Markt, das durch jüngste KI-Fehler erschüttert wurde, wie z.

Categories: IT Info