Pas disa javësh të ankesave të përdoruesve dhe spekulimeve në lidhje me një rënie në performancën e tij të AI, Antropic ka thyer heshtjen e saj.”Ne kurrë nuk e zvogëlojmë cilësinë e modelit për shkak të kërkesës, kohës së ditës ose ngarkesës së serverit. Problemet që përdoruesit tanë raportuan ishin për shkak të gabimeve të infrastrukturës.”në platformë dhe kishte filluar të humbasin besimin pasi të keni përvojë javët e degraduara dhe të papjekura të degraduara dhe të inkurajuara . Njoftimi siguron një vështrim të rrallë, transparent në infrastrukturën komplekse të nevojshme për të shërbyer modele të mëdha gjuhësore në shkallë. Gabimi i parë, një”gabim i kursit të dritares së kontekstit”, u prezantua në 5 gusht, duke ndikuar fillimisht në një 0.8% të kërkesave të SoneNnet 4, sipas Kompania e Kompanisë xla: TPU përpilues . Një rishkrim kodi që synon të përmirësojë saktësinë në marrjen e mostrave të shenjave shkaktoi pa dashje këtë të metë. Shkaku i rrënjës. Në postmortemin e saj, kompania shpjegoi se këto”çështje ekspozuan boshllëqe kritike”. Vlerësimet thjesht nuk i kapën dështimet specifike që përdoruesit po raportonin. Claude shpesh rikuperohet mirë nga gabimet e izoluara, të cilat në mënyrë efektive maskuan lëvizjen sistemike të shkaktuara nga defektet themelore. Këto masa të sigurisë kufizojnë hyrjen e inxhinierëve në ndërveprimet e përdoruesve, duke i penguar ata të ekzaminojnë me lehtësi kërkesat dhe bisedat specifike të nevojshme për të riprodhuar gabime.

Kjo e bëri problemin të duket si degradim i rastësishëm, i paqëndrueshëm sesa një seri dështimesh të betonit, të lidhura. Inxhinierët kanë korrigjuar logjikën e gabuar të kursit, të mbështjellë kodin që shkaktoi korrupsion të daljes, dhe kaluan nga”metoda e përafërt e marrjes së mostrave në një operacion më të fortë”Top-K”më të fortë. Projektuar për të bërë dallimin më të mirë midis modeleve të punës dhe të thyer. Në mënyrë thelbësore, këto kontrolle të cilësisë tani do të funksionojnë vazhdimisht në sistemet e saj të drejtpërdrejta të prodhimit për të kapur gabime në kohë reale. Gara hiper-konkurruese e armëve AI. Për antropik, aksionet janë veçanërisht të larta pasi shtyn përtej modeleve themelore në platformë si një shtresë shërbimi (PAAS), duke garuar më drejtpërdrejt me ofruesit e shërbimeve të cloud dhe softuer. e dukshme në lëshime si modelet agjentike Claude 4 dhe mjetet e përqendruara në zhvillues si nën-agjentët, e bën besueshmërinë e platformës një veçori jo të negociueshme. Filozofia e flotave të AI të menaxhuara nga njeriu po bëhet realitet, por varet plotësisht nga stabiliteti i mjeteve themelore.

Reagimi i komunitetit ndaj postmortemit ka qenë i përzier. Ndërsa shumë zhvillues në forume si reddit e praizoi kompaninë për transparencën e saj të pazakontë , të tjerët mbeten skeptical. Rindërtimi i besimit të një baze profesionale të përdoruesit do të kërkojë stabilitet të qëndrueshëm. Ai pranon përvojën zhgënjyese të përdoruesit dhe siguron një tregim të besueshëm, teknik për dështimet. Kompania po beton se ky nivel i transparencës, i kombinuar me përmirësimet e tij të planifikuara, do të jetë e mjaftueshme për të rivendosur besimin në platformën Claude.

Categories: IT Info