Die neueste Flaggschiff-AI von Anthropic, Claude 4 Opus, überschreitet die Grenzen der künstlichen Intelligenz erheblich. Es zeigt eine beeindruckende Fähigkeit, komplexe Codierungsaufgaben für erweiterte Dauer autonom zu erledigen. Eine wichtige Demonstration, berichtet von

Anthropics eigenes Systemkarten beschreibt Opus 4, die Opus 4 zugänglichen Zeiten zugänglichen Zeiten für komplexe Computerkodierkodierungen beschreiben. Dies ist eine bemerkenswerte Verbesserung gegenüber früheren Modellen. Das Unternehmen schlägt vor, dass es in dieser Entwicklung darum geht, „einen echten kollaborativen Partner für komplexe Arbeiten aufzubauen“, anstatt nur Benchmarks zu verbessern. In spezifischen Testszenarien hat die KI Berichten zufolge das klassische Game Boy Game Pokémon kohärent für bis zu erstaunliche 24 Stunden gespielt. T

Seine Leistung veranschaulicht neben den langwierigen kodierenden Demonstrationen die Fähigkeit des Modells für anhaltende, zielgerichtete Aktivitäten und ihr Potenzial in einer Vielzahl komplexer, langlebiger Anwendungen, die über signifikante Zeiträume aufrechterhalten werden müssen. Ein fortlaufender Twitch-Stream von Claudeplaysspokemon ermöglicht es, wie Claude 4 diese Aufgabe in Echtzeit annimmt. Die fortschrittlichen Fähigkeiten erfordern robuste Management-und ethische Überlegungen, da diese Tools stärker in kritische Prozesse integriert werden. Diese von Anthropic detaillierte Funktion ermöglicht es dem Modell, mehr Verarbeitungszeit für die Argumentation durch komplexe Probleme zu widmen. Verbesserte Speichersysteme unterstützen dies weiter. Auf diese Weise kann das Modell Informationen iterativ verarbeiten, Tools wie Web-Suche verwenden und seinen Ansatz verfeinern, bis eine Lösung erreicht ist. Albert beschrieb dies als Denken, rief ein Tool, Verarbeitungsergebnisse und Wiederholung auf. Diese Behauptung wird durch die Leistung der wichtigsten Branchenbenchmarks unterstützt. Early Access-Partner waren besonders beeindruckt von Claude 4 Opus’Fähigkeit, große, komplexe Codebasen über viele Stunden zu verstehen und zu manipulieren, eine Aufgabe, die häufig weniger fähige Modelle aufstreckt. Github plant, Sonnet 4 in seinen Copilot-Service zu integrieren. 

Anthropic gibt weiter an, dass beide Modelle deutlich weniger anfällig für „Belohnung von Hacking“-Exploiting-Verknüpfungen-als ihre Vorgänger sind. Dies verbessert ihre Zuverlässigkeit für anhaltende, komplexe Operationen. vorteilhaft in Standard-Codierungsszenarien. Es kann jedoch zu”mehr über Extreme in engen Kontexten”führen. Die Systemkartendetails, die bei der Befehlszeilenzugriff und zur Aufschrift”Initiative”in Szenarien von”ungeheuerlichem Fehlverhalten”aufgefordert wurden, kann Opus 4″sehr mutige Aktionen”ergreifen. Whistleblowing”Potenzial hat nach dem Start des Modells eine Gegenreaktion verursacht. Einige KI-Entwickler und Benutzer äußerten Bedenken hinsichtlich der möglichen Überwachung und der KI-Überreichung. Stattdessen stellte das Unternehmen fest, dass „die Standard-Erfahrung von Claude 4 Opus keine autonome Berichterstattung beinhaltet. Dieses Verhalten wurde in spezifischen, kontrollierten Forschungsumgebungen beobachtet, um die Grenzen der Modellagentur zu testen.“ href=”https://twitter.com/sleeepinyourhat/status/1925626079043104830?ref_src=twsrc%5ETFW”Target=”_ Blank”> x , dass dieses Verhalten keine neue Claude-Feature ist, und es ist nicht möglich. Tools und sehr ungewöhnliche Anweisungen.”

Trotz dieser Klarstellungen diskutiert die AI-Community weiterhin die Auswirkungen auf die Privatsphäre und das Vertrauen der Benutzer. Einige stellen die Zuverlässigkeit des unabhängigen Urteils einer KI über das „ungeheueren unmoralische“ Verhalten in Frage. href=”https://www.anthropic.com/news/activating-asl3-protesets”target=”_ leer”>”AI-Sicherheitsstufe 3″ (ASL-3) Sicherheitsvorkehrungen. Diese Entscheidung wurde nicht nur von ihrer erweiterten Agentur beeinflusst.

interne Tests zeigten auch die potenziellen Fähigkeiten des Modells zur Beratung der biologischen Waffenproduktion. Jared Kaplan, der Chefwissenschaftler von Anthropic, hatte zuvor zu Zeit. Seien Sie möglich. Vorsorglich vorsorglich, vorläufige Maßnahmen, während Claude Sonnet 4 im ASL-2-Standard beibehalten wird.”Das Forschungsinstitut hatte sich gegen die Bereitstellung einer vorläufigen Version von Claude 4 Opus beraten. href=”https://www-cdn.anthropic.com/4263b940cabb546aa0e3283f35b686f4f3b2ff47.pdf”target=”_ leer”> anthropischer Sicherheitsbericht . Anthropic behauptet, dass diese spezifischen Probleme in der endgültigen Veröffentlichung weitgehend gemindert wurden. Die Systemkarte (S. 71) gibt an, dass Claude Opus 4 im Vergleich zu Claude-Sonnet 3,7 durchschnittlich um 67% gesunken ist. Diese kontinuierlichen Bemühungen, bahnbrechende Innovationen mit umfassenden Sicherheitsmaßnahmen in Einklang zu bringen, unterstreichen die komplexen Herausforderungen, die mit der Entwicklung von immer mächtigeren AI inhärent sind.

Categories: IT Info