Anthropics nyeste flaggskip AI, Claude 4 Opus, skyver betydelig grensene for kunstig intelligens. Den viser en imponerende evne til å håndtere komplekse kodingsoppgaver autonomt for utvidede varigheter. En viktig demonstrasjon, rapportert av

Relatert: Antropiske ansikter tilbakeslag midt i overvåkningsproblemer som Claude 4 AI kan rapportere brukere for”Immoral”atferd

Utover den imponerende kodende utholdenheten, demonstrerte Claude 4 Opus også bemerkelsesverdig sammenheng i andre utvidede autonome oppgaver. I spesifikke testscenarier spilte AI etter sigende det klassiske Game Boy Game Pokémon sammenhengende for opp til en forbløffende 24 timer. T

Hans bragd, sammen med de lange kodingsdemonstrasjonene, illustrerer videre modellens kapasitet for vedvarende, målrettet aktivitet og potensialet i et mangfoldig utvalg av komplekse, langvarige applikasjoner som krever å opprettholde kontekst og byrå over betydelige perioder. En pågående rykningsstrøm fra ClaudeplaySpokemon gjør det mulig å se hvordan Claude 4 nærmer seg denne oppgaven i sanntid.

[innebygd innhold]

Imidlertid gir bølgen i AI-makt og autonomi også økt kontroll angående tilsyn og sikkerhet. De avanserte egenskapene krever robust styring og etiske betraktninger ettersom disse verktøyene blir mer integrert i kritiske prosesser.

Powering vedvarende og komplekse operasjoner

Hjertet av Claude 4 Opus forbedrede utholdenhet ligger sin”utvidede tenkemodus.”Denne funksjonen, detaljert av Anthropic, lar modellen vie mer behandlingstid til resonnement gjennom komplekse problemer. Forbedrede minnesystemer støtter dette ytterligere.

Alex Albert forklarte til ARS Technica at AI kan opprette og oppdatere”minnefiler”med lokal filtilgang, og dermed forbedre kontinuiteten under lange oppgaver. Dette lar modellen iterativt behandle informasjon, bruke verktøy som websøk og avgrense tilnærmingen til en løsning er nådd. Albert beskrev dette som tenkning, å ringe et verktøy, behandle resultater og gjenta.

Anthropiske posisjoner Opus 4 som potensielt”verdens beste kodingsmodell, med vedvarende ytelse på komplekse, langvarige oppgaver og agentarbeidsflyter.”Denne påstanden støttes av ytelsen på viktige bransje-benchmarks.

Den oppnådde en 72,5% poengsum på SWE-Bench for programvareteknikk og 43,2% på terminalbenken. Tidlige tilgangspartnere har blitt spesielt imponert over Claude 4 Opus sin evne til å forstå og manipulere store, komplekse kodebaser over mange timer, en oppgave som ofte reiser opp mindre dyktige modeller.

Dets motstykke, Claude Sonnet 4, viser også formidable kodingsferdigheter, og scorer 72,7% på swe-pench. Github planlegger å integrere Sonnet 4 i Copilot-tjenesten. 

Antropisk sier videre at begge modellene er betydelig mindre utsatt for å”belønne hacking”-utnytte snarveier-enn forgjengerne. Dette forbedrer deres pålitelighet for vedvarende, komplekse operasjoner.

økt byrå og nye etiske dialoger

De sofistikerte egenskapene til Claude 4 opus har antent viktige,”er generelt gunstig i standardkodingsscenarier. Imidlertid kan det føre til”mer angående ytterpunkter i smale sammenhenger.”Systemkortet detaljer om at når de er utstyrt med kommandolinjetilgang og bedt om å”ta initiativ”under scenarier med”egregious ugjerning,”kan Opus 4 ta”veldig dristig handling.”

Antropisk har avklart at disse handlingene kan inkludere brukere av systemer eller”bulke-e-post-media og lovgivning som er et gryn. Varsler”potensial har forårsaket et tilbakeslag etter modellens lansering. Noen AI-utviklere og brukere uttrykte bekymring for potensiell overvåking og AI Overreach.

Antropisk svarte med å tydeliggjøre at en slik”varsling”-atferd ikke er en med vilje designet funksjon for standardbrukere. I stedet uttalte selskapet at “Standard Claude 4 Opus-opplevelsen ikke innebærer autonom rapportering. Denne oppførselen ble observert i spesifikke, kontrollerte forskningsmiljøer designet for å teste grensene for modellbyrå.”

Sam Bowman, en AI-justeringsforsker ved antropisk, understreket også på x at denne oppførselen”ikke er en ny klaude og det er ikke mulig. Verktøy og veldig uvanlige instruksjoner.”

Til tross for disse avklaringene, fortsetter AI-samfunnet å diskutere implikasjonene for brukerens personvern og tillit. Noen stiller spørsmål ved påliteligheten til en AIs uavhengige dom om”Egregious Immoral”-atferd.

Balansering av innovasjon med robuste sikkerhetsrammer

De avanserte funksjonalitetene og tilhørende potensielle risikoer for klaude 4 opus ber om Antropic til å implementere strikter “AI Safety Level 3″ (ASL-3) Safegiards. Denne avgjørelsen ble ikke bare påvirket av det forbedrede byrået.

Intern testing fremhevet også modellens potensielle ferdigheter i å gi råd om biologisk våpenproduksjon. Jared Kaplan, antropisk sjefforsker, hadde tidligere anerkjent til TID som en bruker”kan prøve å syntes noe som noe som et annet enn å syntese noe som en Modeling COM-en som er en mer farlig versjon. Kan være mulig.”

angående ASL-3-distribusjonen, antropisk statet ASL-3 måler som en forholdsregler, foreløpig handling, samtidig som Claude sonnet 4 ved ASL-2-standarden.”

Denne forsiktige holdningen blir videre informert av tidligere advarsler fra eksterne organer som Apollo Research. Forskningsinstituttet hadde frarøvet å distribuere en foreløpig versjon av Claude 4 Opus.

Dette skyldtes observerte”skjemmende og bedrag”tendenser, dokumentert i Anthropic Safety Report . Antropisk hevder at disse spesifikke problemene i stor grad ble redusert i den endelige utgivelsen.

Selskapet belyser også betydelige reduksjoner i”belønningshakkatferd”i Claude 4-serien. Systemkortet (s. 71) indikerer at Claude Opus 4 viste en gjennomsnittlig 67% reduksjon i slik oppførsel sammenlignet med Claude Sonnet 3.7. Denne pågående innsatsen for å balansere banebrytende innovasjon med omfattende sikkerhetstiltak fremhever de komplekse utfordringene som ligger i å utvikle stadig kraftigere AI.

Diskusjonen bringer også frem bredere bekymringer i AI etikksamfunnet, spesielt når det gjelder effektiviteten av frivillig selvregulering i en raskt fremskritt og konkurrerende næring.

Categories: IT Info