Fillimi Kinez i AI Deepseek ka filluar një azhurnim të dukshëm në modelin e tij të inteligjencës artificiale R1, të caktuar Deepseek-R1-0528, duke rritur ndjeshëm aftësitë e tij dhe duke e pozicionuar atë më afër sistemeve kryesore globale. Përkundër fitimeve të dukshme të performancës, kompania e konsideron modelin e ri një”azhurnim të vogël”. Kjo është domethënëse për përdoruesit dhe industrinë e gjerë, duke theksuar përparimin e shpejtë të firmave kineze të AI dhe duke premtuar mjete më të fuqishme, të besueshme të AI, duke intensifikuar kështu konkurrencën globale të AI. Performanca tani po i afrohet asaj të modeleve kryesore, të tilla si O3 dhe Gemini 2.5 Pro”. Ky përmirësim, sipas Deepseek AI, është rezultat i rritjes së burimeve llogaritëse dhe mekanizmave të rinj të optimizmit algoritëm të aplikuar gjatë fazës së tij pas trajnimit. src=”të dhëna: image/svg+xml; nitro-empty-id=mty0mdoxndc2-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3nz MIIHDPZHROPSIXMJGWIIBOZWLNAHQ9iJC3MYIGEG1SBNM9IMH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2ZZ4=”>

Për përdoruesit, kjo përkthehet në pritjet e rezultateve më të sakta dhe kontekstuale të rëndësishme, veçanërisht kur merren me detyrat komplekse. Kompania gjithashtu theksoi se versioni R1-0528 ofron mbështetje të zgjeruar për thirrjen e funksionit, duke bërë të mundur ndërveprim më të mirë me mjete të jashtme, dhe një përvojë të përmirësuar për”kodimin e vibe”, duke sugjeruar gjenerimin më intuitiv të kodit, siç thuhet në njoftimin e tyre. parametrat por aktivizon vetëm rreth 37 miliardë për shenjë gjatë konkluzionit. Veçanërisht, në testin AIME 2025, një konkurs sfidues i matematikës, saktësia e modelit raportohet se u rrit nga 70% në 87.5%.

Kjo i atribuohet një thellësie më të madhe të arsyetimit; Modeli i ri ishte mesatarisht 23,000 shenja-njësi të tekstit të përpunuara-për pyetje në këtë provë, një rritje e konsiderueshme nga 12,000 shenjat e mëparshme. Duke demonstruar më tej aftësinë e saj, në udhëheqjen e livecodeBench, të mirëmbajtur nga studiues nga UC Berkeley, MIT, dhe Cornell, Deepseek R1-0528 i ri i tejkaluar më tej Xai’s Grok-3-Mini dhe Alibaba’s Qwen-3. Informacioni i besueshëm por i rremë mbetet një sfidë e vazhdueshme. Zhvilluesit që testojnë modelin kanë vërejtur gjithashtu se r1-0528 Uebfaqja zyrtare e bisedës së Deepseek Duke mundësuar opsionin”Deepthink”. Modeli R1-0528 është gjithashtu i arritshëm me një API falas përmes OpenRouter. Komuniteti me burim të hapur, Deepseek ka lëshuar gjithashtu Deepseek-R1-0528-Qwen3-8b. i licencuar nën licencë mit , duke lejuar përdorimin dhe distilimin komercial. href=”https://unsloth.ai/blog/deepseek-r1-0528″target=”_ bosh”> postimi i blogut që ata me sukses sasinë me sukses R1 671B-Parameter nga 720GB poshtë në 185 GB, një ulje prej 75%, duke e bërë atë më të arritshëm për përdorimin lokal ndërsa mbajtja e funksionimit të fortë. Realitetet Gjeopolitike

Ndërsa Postimi i Fytyrës së Deepseek detajon një azhurnim të rëndësishëm, disa karakterizuan lëshimin në Raportet e hershme”. Echoed nga The Express Tribune , e cila gjithashtu përmendi një përfaqësues të thellë duke përshkruar atë në mënyrë të ngjashme në një grup privat”. Për modelin e tij të arsyetimit të gjeneratës së ardhshme R2, fillimi i të cilit raportohet se u përshpejtua për të garuar më mirë me Laboratorët Global AI. Deepseek ka kontribuar vazhdimisht në AI me burim të hapur, duke lëshuar mjete si kernelin e deshifrimit të Flashmla dhe modelin Deepseek-Prover-V2-671B për teoremën matematikore që dëshmojnë. Raporti tregoi se DeepSeek nuk ishte vetëm një aplikacion tjetër i AI, por”një armë në arsenalin e Partisë Komuniste Kineze, e krijuar për të spiunuar amerikanët, vjedhur teknologjinë tonë, dhe për të shkatërruar ligjin e Sh.B.A.”Modelet Deepseek në fund të vitit 2024.

Categories: IT Info