Niemiecka firma IT TNG Technology Consulting wydała nowy model AI open source, który podobno jest dwa razy szybszy niż wariant Deepseek R1-0528 od maja. Wydany w tym tygodniu na hugging Face platforma , Deepseek-tng r1t2 Chimera osiągnie swoją reflektorową wydajność przez powieść „Zespół”. Technika.

Ta metoda łączy komponenty z trzech różnych modeli nadrzędnych, w tym oryginalnych modeli Deepseek R1 i V3. Rezultatem jest model, który zachowuje możliwości rozumowania na wysokim poziomie, generując odpowiedzi z 60% mniej tokenów, drastycznie obniżają koszty wnioskowania i czasy reakcji dla programistów.

Społeczność programistów AI zareagowała z entuzjazmem. Na X, Hulging Face Starszy lider Vaibhav Srivastav napisał: „Cholera! Deepseek R1T2-200% szybciej niż R1-0528 i 20% szybciej niż R1,” . Model jest dostępny na licencji Permissive MIT, umożliwiając szerokie użycie komercyjne i modyfikację.

Montaż ekspertów: Nowe podejście do tworzenia modelu

Metoda „Zgromadzenie ekspresów” (AOE) stanowi znaczący odejście od konwencjonalnego tworzenia modelu. Zamiast dopracowywać lub przekwalifikować, AOE buduje nowy model, selektywne łączenie tensorów wagowych od wielu wcześniej wyszkolonych rodziców, proces szczegółowo opisany w

To podejście różni się od architektury mieszanki ekspresji (MOE) stosowanej w jej modelach macierzystego. Podczas gdy Moe jest architekturą środowiska wykonawczego, która aktywuje ułamek „ekspertów” modelu dla dowolnego zadania, AOE to technika budowlana, która przepieszcza połączoną wiedzę w jednym, bardziej wydajnym modelu końcowym.

Benchmarks: Bilansowanie surowej inteligencji z ekstremalną wydajnością

Praktyczną korzyścią tej techniki tej techniki jest potężna bilans inteligencji i prędkości. Według testów porównawczych opublikowanych przez TNG, R1T2 Chimera osiąga od 90% do 92% rozumowania swojego najpotężniejszego rodzica, R1-0528, na wymagające testy, takie jak AIME i GPQA.

Te tereny są zaprojektowane w celu przetestowania wyrafinowanego, wieloetapowego rozumowania, które wykraczają daleko poza prostą wiedzę. Jednak kluczową zaletą modelu jest zwięzłość. Generuje poprawne odpowiedzi przy użyciu około 40% tokenów wymaganych przez R1-0528, 60% zmniejszenie długości wyjściowej.

To bezpośrednio przekłada się na szybszy czas reakcji i niższe koszty obliczeniowe, co czyni go ponad dwukrotnie szybciej w praktyce. Ta wydajność była znakiem rozpoznawczym rodzica V3. Po wydaniu marszu, deweloper Awni Hannun powiedział o ulepszonym marca 2025 r. Wariant v3 , „To najbardziej potężny model, jaki kiedykolwiek uciekłem na moim laptopie,”po Uruchamianie go na swoim laptopie . R1T2 Chimera z powodzeniem przeszczepuje tę wydajność na silniejszy rdzeń rozumowania.

Innowacja wśród geopolitycznych i korporacyjnych wiatrów nagłówki

Uwolnienie tego wysoce wydajnego modelu występuje w turbulentnym czasie dla jego pierwotnego twórcy, Deepseek AI. Pęd chińskiej firmy utknął w martwym punkcie, a jej przewidywany model R2 jest obecnie opóźniony. Wynika to zarówno z wewnętrznego niezadowolenia wydajności, jak i wpływu kontroli eksportu USA na witalne układy AI.

Jednocześnie Deepseek staje w obliczu montażu presji regulacyjnej na Zachodzie. W Niemczech Berliński organ ochrony danych poprosił Apple i Google usunęło aplikację Deepseek ze sklepów, oznaczając ją „bezprawną treści” z powodu nielegalnego ryzyka przenoszenia danych do Chin.

Jest to zgodne z przeklętym kwietniowym raportem z amerykańskiej komisji selekcyjnej w sprawie CCP. Przewodniczący komitetu John Moolenaar stwierdził: „Ten raport wyjaśnia: Deepseek to nie tylko kolejna aplikacja AI-jest bronią w arsenale chińskiej partii komunistycznej…”, twierdząc, że aplikacja jest narzędziem do szpiegostwa i pozyskiwania danych. Te zewnętrzne naciski tworzą złożone tło dla każdej technologii pochodzącej z pracy Deepseek.

wdrożenie przedsiębiorstwa: dostępność, licencjonowanie i ograniczenia

Dla liderów technicznych Enterprise, R1T2 Chimera stanowi kluczową opcję. Licencja MIT oferuje maksymalną elastyczność prywatnego hostingu, dostosowywania i wdrażania w aplikacjach komercyjnych bez opłat licencyjnych. Znaczące zmniejszenie kosztów wnioskowania sprawia, że ​​idealnie nadaje się do środowisk o wysokiej przepustowości lub w czasie rzeczywistym.

Oszczędności kosztów są szczególnie istotne dla aplikacji, takich jak chatboty obsługi klienta w czasie rzeczywistym, podsumowanie dokumentów na dużą skalę lub zapytania dotyczące wiedzy wewnętrznej, w których zarówno prędkość, jak i budżet są krytyczne. Umieszcza model w pożądanej kwadrancie na krzywej wydajności-kosztów.

Jednak TNG zauważa niektóre aktualne ograniczenia. Model nie jest jeszcze zalecany dla przypadków użycia wymagających wywoływania funkcji lub użycia narzędzia, co oznacza, że ​​nie może niezawodnie oddziaływać z zewnętrznymi interfejsami API. Ogranicza to jego wykorzystanie w złożonych, zautomatyzowanych przepływach pracy, chociaż przyszłe aktualizacje mogą rozwiązać tę lukę.

Ponadto firma zaleca użytkownikom europejskim, aby ocenili ich zgodność z UE AI, która ma zasięg pozaziemski. Pomimo tych zastrzeżeń, wydanie R1T2 Chimera przez TNG oznacza znaczący krok w rozwoju modułowej AI, oferując spojrzenie na przyszłość, w której modele są montowane, a nie tylko wyszkolone.

Categories: IT Info