cea mai nouă pilot AI a Anthropic, Claude 4 Opus, împinge semnificativ granițele inteligenței artificiale. Prezintă o abilitate impresionantă de a gestiona în mod autonom sarcini de codificare complexe pentru durate extinse. O demonstrație cheie, raportată de ars tehnica , a implicat AI refactorând cu succes o firmă de cod substanțial timp de șapte ore. această sarcină. Acest salt în capacitate este atribuit în mare măsură la termenii antropici un mod „gândire extinsă” și funcționalități sofisticate de utilizare a instrumentelor. Aceasta poziționează AI-ul ca un colaborator potențial transformator pentru dezvoltarea de software complexă și alte fluxuri de lucru solicitante, de lungă durată.
înrudit: se confruntă cu acțiuni antropice pe fondul preocupărilor de supraveghere ca Claude 4 AI ar putea raporta utilizatorii pentru „imoral„ comportament
[ href=”https://www-cdn.antropic.com/6be99a52cb68eb70eb9572b4cafad13df32ed995.pdf”target=”_ blank”> card de sistem descrie opusul 4 să fie „în special adept la sarcini complexe de codificare a computerului.”Acest lucru marchează o îmbunătățire notabilă față de modelele anterioare.
Potrivit lui Alex Albert, șeful relațiilor Claude a Anthropic, modelele anterioare au pierdut de obicei coerența după doar una până la două ore. Compania sugerează că această evoluție se referă la „construirea unui adevărat partener de colaborare pentru lucrări complexe”, mai degrabă decât pentru a îmbunătăți valori de referință.
dincolo de a rezistență impresionantă de codificare, Claude 4 Opus a demonstrat, de asemenea, o coerență remarcabilă în alte sarcini autonomate extinse. În scenarii specifice de testare, AI-ul a jucat jocul clasic al jocului de băieți de joc Pokémon în mod coerent pentru până la o uimitoare 24 de ore. T
featul său, alături de demonstrațiile de codificare îndelungate, ilustrează în continuare capacitatea modelului de activitate susținută, direcționată pe obiectiv și potențialul său într-o gamă diversă de aplicații complexe, de lungă durată, care necesită menținerea contextului și a agenției pe perioade semnificative. Un flux de twitch continuu de la Claudeplayspokemon permite urmărirea modului în care Claude 4 abordează această sarcină în timp real.
[Conținut încorporat]
Cu toate acestea, creșterea puterii AI și autonomie aduce, de asemenea, un control crescut în ceea ce privește supravegherea și siguranța. Capacitățile avansate necesită o gestionare robustă și considerente etice, deoarece aceste instrumente devin mai integrate în procesele critice.
Alimentarea operațiunilor susținute și complexe
În centrul Claudei 4 Opus, rezistența îmbunătățită se află „modul său de gândire extinsă”. Această caracteristică, detaliată de Antropic, permite modelului să dedice mai mult timp de procesare pentru a raționa prin probleme complexe. Sistemele de memorie îmbunătățite acceptă în continuare acest lucru.
Alex Albert a explicat Ars Technica că AI poate crea și actualiza „fișiere de memorie” cu acces la fișiere locale, îmbunătățind astfel continuitatea în timpul sarcinilor îndelungate. Acest lucru permite modelului să proceseze în mod iterativ informațiile, să utilizeze instrumente precum căutarea web și să-și perfecționeze abordarea până la atingerea unei soluții. Albert a descris acest lucru ca fiind gândirea, apelarea la un instrument, procesarea rezultatelor și repetarea.
pozițiile antropice Opus 4 ca fiind „cel mai bun model de codificare al lumii, cu performanțe susținute pe sarcini complexe, de lungă durată și fluxuri de lucru agent”. Această afirmație este susținută de performanțele sale pe referințele cheie ale industriei.
a obținut un scor de 72,5% la SWE-Bench pentru inginerie software și 43,2% pe terminalul-banc. Partenerii de acces timpuriu au fost deosebit de impresionați de capacitatea Claude 4 Opus de a înțelege și manipula coduri mari, complexe, în mai multe ore, o sarcină care de multe ori călătorește modele mai puțin capabile.
omologul său, Claude Sonet 4, arată, de asemenea, abilități de codificare formidabile, marcând 72,7% pe Swe-Bench. Github intenționează să integreze sonet 4 în serviciul său de copilot.
Antropic afirmă în plus că ambele modele sunt semnificativ mai puțin predispuse la „hacking-ul recompensei”-complet de scurtături-decât predecesorii lor. Acest lucru îmbunătățește fiabilitatea lor pentru operațiuni complexe susținute.
agenție crescută și dialoguri etice emergente
Capacitățile sofisticate ale Claudei 4 Opus au aprins discuții importante, în special propensiunea sa crescută de a „lua inițiativă pe cont propriu în contextele agentice”, așa cum este angajat în general card. benefic în scenarii de codificare standard. Cu toate acestea, poate duce la „mai multe extreme în contexte restrânse”. Cardul de sistem detaliază că, atunci când sunt furnizate cu acces la linia de comandă și au solicitat „să ia inițiativa” în timpul scenariilor de „infracțiuni necorespunzătoare”, Opus 4 poate lua „acțiuni foarte îndrăznețe”. Potențialul a provocat o reacție în urma lansării modelului. Unii dezvoltatori și utilizatori AI și-au exprimat îngrijorarea cu privire la supravegherea potențială și o suprasolicitare AI.
Antropic a răspuns prin clarificarea faptului că un astfel de comportament „denunțător” nu este o caracteristică intenționat concepută pentru utilizatorii standard. În schimb, compania a declarat că „Experiența standard Claude 4 Opus nu implică raportare autonomă. Acest comportament a fost observat în medii de cercetare specifice, controlate, concepute pentru a testa limitele agenției de model. href=”https://twitter.com/sleepinyourhat/status/1925626079043104830?ref_src=twsrc%5etfw”Target=”_ Blank”> X Că acest comportament”nu este o nouă caracteristică a cladei și nu este posibil în mod normal. și instrucțiuni foarte neobișnuite.”
În ciuda acestor clarificări, comunitatea AI continuă să dezbată implicațiile pentru confidențialitatea și încrederea utilizatorilor. Unii pun la îndoială fiabilitatea judecății independente a AI a comportamentului „imoral”.
echilibrarea inovației cu cadre de siguranță robuste
Funcționalitățile avansate și riscurile potențiale asociate ale Claudei 4 Opus au determinat antropez să implementeze mai strâmt “AI Safety Nivel 3” (ASL-3) Safegardards. Această decizie a fost influențată nu numai de agenția sa îmbunătățită.
Testarea internă a evidențiat, de asemenea, competența potențială a modelului în consilierea asupra producției de arme biologice. Jared Kaplan, Anthropic’s chief scientist, had previously acknowledged to TIME that a user “could try to synthesize something like COVID or a more dangerous version of the flu—and basically, our modeling suggests that this might be Posibil.”
În ceea ce privește implementarea ASL-3, starea antropică„ Nu am stabilit încă dacă Claude Opus 4 a trecut definitiv pragul capacităților care necesită protecții ASL-3. Măsurile ca o acțiune de precauție, provizorie, menținând în același timp Claude Sonet 4 la standardul ASL-2.”
Această poziție prudentă este informată în continuare de avertismentele anterioare ale unor organisme externe precum Apollo Research. Institutul de Cercetare a sfătuit să implementeze o versiune preliminară a Claude 4 Opus.
Acest lucru s-a datorat tendințelor „schemelor și înșelăciunii” observate, documentate în Raport de siguranță antropică . Anthropic afirmă că aceste probleme specifice au fost în mare parte atenuate în versiunea finală.
Compania evidențiază, de asemenea, reduceri semnificative ale „comportamentului de hacking de recompensă” din seria Claude 4. Cardul de sistem (p. 71) indică Claude Opus 4 a arătat o scădere medie de 67% a unui astfel de comportament în comparație cu Claude Sonet 3,7. Aceste eforturi continue de a echilibra inovația de ultimă generație cu măsuri de siguranță cuprinzătoare evidențiază provocările complexe inerente dezvoltării AI-ului din ce în ce mai puternic.