Në mes të intensifikimit të presioneve globale të konkurrencës dhe furnizimit të pajisjeve, veçanërisht në lidhje me qasjen në GPU me performancë të lartë, efikasiteti i AI është bërë një fokus qendror për shumë firma teknologjike. Gjatë thirrjes së saj të fitimeve në Q4 2024 në Mars 2025, Tencent raportoi uljen e kërkesave të saj GPU duke integruar modelet e Deepseek. demonstroi se-ai realitet”. Ndërsa Tencent ende prokuron harduer, si çipat H20 të NVIDIA për integrimin e Deepseek në aplikacione të tilla si WeChat, deklarata nxjerr në pah një besim strategjik në modelet efikase të Deepseek. > Pushimi i burimit të hapur të Deepseek fillon risi”. Komponenti i parë i zbuluar në bazë të këtij programi, është FlashMla.

Ne jemi një ekip i vogël @deepseek_ai Eksplorimi i agi. Duke filluar javën tjetër, ne do të jemi me burime të hapura 5 repos, duke ndarë përparimin tonë të vogël, por të sinqertë me transparencë të plotë. href=”https://twitter.com/deepseek_ai/status/18927865555494019098?ref_src=twsrc%5etfw Kernel, një ndryshim në mekanizmat e vëmendjes së transformatorit të dizajnuara për efikasitet të përmirësuar, të akorduar posaçërisht për arkitekturën GPU të Nvidia. Në dispozicion në github nën një licencë mit , kernel është përshkruar nga Deepseek si i inxhinieruar për sekuencat me gjatësi të ndryshueshme”në skenarë të shërbimit dhe”tashmë po fuqizojnë sistemet tona të prodhimit.”Përdor kvcache në faqe-një teknikë e menaxhimit të kujtesës duke optimizuar ruajtjen për gjendjet e vlerës kryesore në modelet e transformatorit-me një madhësi 64-bllok. Kjo qasje lejon shpërndarjen më fleksibël të kujtesës në krahasim me caching kontigjent, duke përmirësuar potencialisht xhiros për kërkesa të njëkohshme me gjatësi të ndryshme të sekuencave. 580 tflops, megjithëse këto shifra kërkojnë një vlefshmëri të pavarur, të botës reale në ngarkesa të ndryshme pune. Kompania krediton frymëzim nga projekte të krijuara si flashaTtiontion 2 & 3 dhe Nvidia e vetë Repository Github gjithashtu tregon për përpjekjet e komunitetit që përshtatin teknologjinë për platformat e tjera të harduerit, duke përfshirë ato nga metax-maca/flashmla ), Moore Threads ( Moorethreads/mt-flashmla ), hygon/hygon/a> ( opendas/mlattention ), intelifuzioni ( Intelifusion/Tyllm ), iluvatar corex ( Deep-spark/flashmla ), dhe aiter/mla ), duke sugjeruar interes më të gjerë të ekosistemit për teknikat themelore. Deepseek raportohet se përshpejtoi afatin kohor të zhvillimit për modelin e tij të ardhshëm kryesor, R2, duke u zhvendosur nga një debutim i planifikuar maj 2025 në një nisje potencialisht të hershme, siç raportohet në fund të shkurtit. Përmbushja e këtyre dinamikave të tregut janë sfida rregullatore, përfshirë kufizimet dhe hetimet e SHBA në Evropë në lidhje me praktikat e të dhënave. Për më tepër, mbështetja e Deepseek në harduerin Nvidia mbetet një faktor, duke pasur parasysh kontrollet e vazhdueshme të eksportit në SH.B.A. që ndikojnë në disponueshmërinë e çipit në Kinë. Numërimet e parametrave, një shteg i ilustruar nga modelet intensive të burimeve të Openai si gjigandi, GPT-4.5. href=”https://arxiv.org/abs/2504.02495″target=”_ bosh”> Letër e disponueshme në arxiv ), një teknikë e shtrirjes në kohën e konkluzionit, e cila synon të zvogëlojë varësinë e njeriut. arkitektura, duke ndërtuar potencialisht një avantazh konkurrues në një mjedis të kufizuar nga burimet.

Categories: IT Info