Z komentarzy rzekomego pracownika, które ukazały się w tym tygodniu, wynika, że ​​Microsoft najwyraźniej opracowuje nowe narzędzia programowe do uruchamiania oprogramowania AI firmy NVIDIA na tańszych chipach AMD.

Obniżenie wysokich kosztów obciążeń AI, zwane również wnioskowaniem, bezpośrednio podważyłoby długo utrzymywaną dominację firmy NVIDIA.

Podobno takie narzędzia miałyby działać poprzez konwersję kodu z zastrzeżonej platformy CUDA firmy NVIDIA do formatu ROCm typu open source firmy AMD. Jeśli to prawda, strategia odzwierciedlałaby szerszy trend branżowy, ponieważ giganci technologiczni, tacy jak Oracle i OpenAI, zwiększają swoją zależność od sprzętu AMD, aby wspierać konkurencję.

Tajna broń przeciwko dominacji sztucznej inteligencji firmy NVIDIA?

Twierdzenia dotyczące nowego zestawu narzędzi pochodzą z transkrypcji krążącej w Internecie, która choć niepotwierdzona przez Microsoft, wydaje się pochodzić z hte Forum Trzeciego Mostu, renomowanej sieci eksperckiej, która zapewnia płatne wywiady z instytucjami klientów.

Zawarta w nim anonimowa osoba uważana za eksperta firmy Microsoft twierdzi, że firma aktywnie pracuje nad wypełnieniem luki pomiędzy zastrzeżonym oprogramowaniem firmy NVIDIA a sprzętem jej konkurentów.

W transkrypcji udostępnionej za pośrednictwem zrzutu ekranu na platformie X prelegent twierdził, że istnieją wewnętrzne projekty zaprojektowane aby stawić czoła temu wyzwaniu.

„W ciągu ostatnich trzech–czterech miesięcy zaobserwowano znacznie większe zainteresowanie oszczędzaniem kosztów dzięki wnioskowaniu. Stworzyliśmy zestawy narzędzi, które pomagają w konwersji modeli takich jak CUDA na ROCm, dzięki czemu można ich używać na procesorach AMD, takich jak 300X.

Otrzymaliśmy wiele zapytań dotyczących naszej ścieżki z AMD, 400X i 450X. Aktywnie współpracujemy z AMD na ten temat, aby zobaczyć, jak to zmaksymalizować. Powiedziałbym, że największym wyzwaniem, przed którym obecnie stoimy, szczególnie w przypadku nowszych serwerów, jest określenie gęstości w szafie i zapewnienie chłodzenia cieczą w szafie.”

Rzekomy post na forum Third Bridge (źródło: @Jukanlosreve/X)

Taki zestaw narzędzi skutecznie działałby jako warstwa tłumacząca, umożliwiając modelom AI pierwotnie zbudowanym dla ekosystemu NVIDIA działanie na sprzęcie AMD bez konieczności posiadania kompletnego i kosztownego oprogramowania. przepisać.

Przez lata platforma CUDA firmy NVIDIA była zarówno potężnym narzędziem, jak i złotą klatką dla twórców sztucznej inteligencji. Jako platforma obliczeń równoległych, której solidne biblioteki uczyniły ją standardem branżowym, CUDA stworzyła potężną „fosę”, która utrudnia konkurentom zdobycie udziału w rynku.

Jeśli wysiłki Microsoftu zostaną potwierdzone, będzie to bezpośredni atak na tę fosę. Chociaż ROCm firmy AMD jest wydajną alternatywą typu open source, niezawodna ścieżka konwersji pozwoliłaby klientom Microsoft Azure uzyskać korzyści finansowe ze sprzętu AMD bez konieczności rezygnacji ze znanego środowiska CUDA.

Opcje uruchamiania CUDA z chipami AMD są już dostępne, takie jak łańcuch narzędzi GPGPU firmy SCALE. Jednak utrata wydajności spowodowana konwersją w dalszym ciągu stanowi stałą przeszkodę, z którą Microsoft najwyraźniej chce się uporać.

Gra oszczędzająca w celu uzyskania boomu wnioskowania dotyczącego sztucznej inteligencji

Gonzeni rosnącymi kosztami operacji związanych ze sztuczną inteligencją, giganci technologiczni obecnie agresywnie poszukują środków oszczędzających koszty. Prelegent w transkrypcji podkreślił, że główna motywacja rzekomego zestawu narzędzi ma podłoże finansowe, szczególnie na etapie wnioskowania sztucznej inteligencji, na którym wykorzystywane są wytrenowane modele.

W miarę skalowania usług sztucznej inteligencji do milionów użytkowników, wnioskowanie stanowi ogromną część kosztów operacyjnych.

Rosnące zainteresowanie efektywnością kosztową sprawia, że bardziej konkurencyjne cenowo procesory graficzne AMD stanowią atrakcyjną alternatywę dla droższego sprzętu NVIDIA, pod warunkiem pokonania bariery programowej.

Oprócz kosztów oprogramowania i chipów, krytycznym wąskim gardłem stają się ograniczenia fizyczne w centrach danych. Źródło w transkrypcji zauważyło, że podstawowym wyzwaniem nie jest już tylko zapewnienie wystarczającej ilości energii elektrycznej, ale efektywne zarządzanie nią.

Skoncentrowanie się na gęstości mocy i chłodzeniu cieczą uwypukla ogromne wymagania w zakresie akceleratorów sztucznej inteligencji nowej generacji.

Ogólnobranżowe dążenie do przełamania uścisku CUDA

rzekoma strategia firmy Microsoft byłaby zgodna ze znaczącym, ogólnobranżowym dążeniem do utrzymywania bardziej konkurencyjnych dostaw sprzętu AI łańcuch. Dla firmy NVIDIA, której wiodąca pozycja na rynku opiera się zarówno na oprogramowaniu, jak i na krzemie, trend ten stanowi długoterminowe zagrożenie.

Oracle, kluczowy gracz w infrastrukturze chmurowej, ogłosił niedawno zawarcie dużego partnerstwa w celu wdrożenia 50 000 chipów AMD AI. Karan Batta, starszy wiceprezes Oracle Cloud, wyraźnie wskazał na wartość tej alternatywy w przypadku obciążeń wrażliwych na koszty.

Wiodące laboratorium badawcze AI OpenAI również podejmuje zdecydowane kroki w celu dywersyfikacji swoich podstaw obliczeniowych. Zawarła ostateczną wielomiliardową umowę z AMD na wdrożenie 6 gigawatów swoich procesorów graficznych.

Jej partnerstwo obejmuje unikalny warrant na maksymalnie 160 milionów akcji, co może dać OpenAI około 10% udziałów w kapitale producenta chipów, głęboko zbiegając się z ich celami.

Ten trend „kokonkurencyjności” rozciąga się nawet na historycznych rywali. Intel prowadzi rozmowy w sprawie produkcji chipów dla AMD, podkreślając strategiczne znaczenie zróżnicowanego łańcucha dostaw półprzewodników.

Jeśli twierdzenia na temat zestawu narzędzi Microsoftu są prawdziwe, firma nie tylko pracuje nad rozwiązaniem problemu kosztów wewnętrznych, ale przyczynia się do szerszej ewolucji rynku. Skuteczne narzędzie do konwersji mogłoby zasygnalizować przyszłość rozwoju sztucznej inteligencji niezależnej od sprzętu, uwalniając programistów od uzależnienia od dostawcy.

Taka potencjalna zmiana oznaczałaby nową fazę dojrzewania całej branży sztucznej inteligencji, przejście od szalonego zawłaszczania ziemi obliczeniowej do bardziej strategicznego, wielobiegunowego ekosystemu.

Categories: IT Info