OpenAI przejmuje większą kontrolę nad przyszłością swojego sprzętu, ogłaszając w poniedziałek wielomiliardowe partnerstwo z firmą Broadcom w celu wspólnego opracowania i wdrożenia 10 gigawatów niestandardowych akceleratorów sztucznej inteligencji.
The umowa formalizuje 18-miesięczną współpracę, podczas której OpenAI projektuje chipy, a Broadcom buduje zintegrowane systemy.
Ma to na celu zaspokojenie żarłocznego apetytu lidera AI na moc obliczeniową. To strategiczne posunięcie pogłębia dążenie OpenAI do zdywersyfikowanego łańcucha dostaw, zmniejszając jego zależność od gigantów branżowych Nvidia i AMD.
Wdrożenia mają rozpocząć się w drugiej połowie 2026 r. i zakończyć do końca Rok 2029, będący krytycznym krokiem w wyścigu zbrojeń AI.
Po ogłoszeniu akcje Broadcom wzrosły o 9%. Chociaż warunki finansowe nie zostały ujawnione, źródła zaznajomione z umową potwierdziły jej wartość na „wiele miliardów dolarów”.
Kontrola Destiny za pomocą niestandardowego krzemu
Partnerstwo sygnalizuje znaczący trend w branży: główni gracze w dziedzinie sztucznej inteligencji wychodzą poza gotowe komponenty i projektują własny krzem. Tworząc niestandardowe akceleratory, OpenAI może osadzić swoje unikalne oprogramowanie i spostrzeżenia związane z budowaniem modeli bezpośrednio w sprzęcie.
Dyrektor generalny OpenAI Sam Altman wyjaśnił, że ta integracja jest kluczem do odblokowania nowej wydajności, stwierdzając, że „możemy uzyskać ogromny wzrost wydajności, a to doprowadzi do znacznie lepszej wydajności, szybszych i tańszych modeli – to wszystko.”
To podejście pozwala na stworzenie sprzętu dostosowanego do konkretnej sztucznej inteligencji obciążeń, potencjalnie obniżając ogromne koszty związane ze szkoleniem i uruchamianiem pionierskich modeli.
Współpraca trwa od 18 miesięcy i ewoluuje od wstępnych rozmów na temat rozwoju chipów do kompleksowego planu dla całych systemów.
Systemy te będą obejmować sieć, pamięć i komponenty obliczeniowe firmy Broadcom, a wszystko to zbudowane na stosie Ethernet.
Charlie Kawwas, dyrektor wykonawczy Broadcom, zauważył, że „niestandardowe akceleratory wyjątkowo dobrze łączą się ze opartymi na standardach rozwiązaniami sieciowymi umożliwiającymi skalowanie i skalowanie w poziomie sieci Ethernet, aby zapewnić infrastrukturę sztucznej inteligencji nowej generacji zoptymalizowaną pod względem kosztów i wydajności”.
Co więcej, OpenAI wykorzystuje własną sztuczną inteligencję do przyspieszania procesu projektowania. Prezes Greg Brockman ujawnił: „Bierzesz komponenty, które ludzie już zoptymalizowali, i po prostu wlewasz do nich obliczenia, a model wychodzi z własnymi optymalizacjami”.
Dyrektor generalny Broadcom, Hock Tan, określił to posunięcie jako strategiczny imperatyw dla liderów AI, stwierdzając, że „jeśli robisz własne chipy, masz kontrolę nad swoim przeznaczeniem”. To nastawienie podkreśla rosnące przekonanie, że sprzęt i oprogramowanie muszą być tworzone wspólnie, aby przesuwać granice sztucznej inteligencji.
Strategia dywersyfikacji o wysokiej stawce
Ta umowa to najnowszy i najbardziej konkretny krok w agresywnej strategii OpenAI mającej na celu zbudowanie odpornej podstawy obliczeniowej obejmującej wielu dostawców. Laboratorium sztucznej inteligencji aktywnie pracuje nad unikaniem wąskich gardeł w łańcuchu dostaw i zmniejszaniem swojej zależności od jednego partnera, co jest kluczowym czynnikiem w miarę wzrostu ambicji firmy.
Strategia nabrała tempa po tym, jak OpenAI zrewidowało swoją umowę z Microsoftem, umożliwiając jej stosowanie podejścia obejmującego wiele chmur i wielu dostawców. Doprowadziło to do olbrzymiej umowy na chmurę o wartości 300 miliardów dolarów z firmą Oracle i przełomowego partnerstwa z firmą Nvidia w zakresie 10 gigawatów jej systemów nowej generacji.
W zeszłym tygodniu firma OpenAI ogłosiła ostateczną umowę z AMD na wdrożenie 6 gigawatów swoich procesorów graficznych AI. Transakcja z Broadcom dodaje potężny trzeci filar, tworząc dynamikę konkurencyjności wśród kluczowych dostawców sprzętu i zapewniając jej znaczną siłę nacisku.
To wielostronne podejście — łączenie pojemności chmury z procesorami graficznymi konkurencji, a obecnie niestandardowymi krzemami — ma na celu stworzenie solidnego i konkurencyjnego łańcucha dostaw. Prezes OpenAI Greg Brockman niedawno przedstawił ocenę ryzyka firmy, stwierdzając: „O wiele bardziej martwię się, że poniesiemy porażkę z powodu zbyt małej mocy obliczeniowej niż zbyt dużej”.
Napędzanie wyścigu zbrojeń w zakresie obliczeń AI
Skala zobowiązań OpenAI jest ogromna. Dzięki umowie z Broadcom firma ogłosiła plany zabezpieczenia około 33 gigawatów mocy obliczeniowej we wszystkich swoich spółkach. Ta masowa rozbudowa jest bezpośrednią reakcją na nasilający się „wyścig zbrojeń obliczeniowych” wśród firm Big Tech.
Rywale tacy jak Meta i Google inwestują setki miliardów w swoje własne centra danych, czyniąc dostęp do mocy o mocy gigawatów egzystencjalną koniecznością dla zachowania konkurencyjności.
Ta silna konkurencja zmusiła OpenAI do kosztownej, ale niezbędnej rozbudowy infrastruktury, która jest napędzana kreatywnym finansowaniem, takim jak jako niedawne posunięcie SoftBanku mające na celu zabezpieczenie pożyczki o wartości 5 miliardów dolarów na pogłębienie inwestycji w OpenAI.
Ta infrastruktura jest niezbędna do uruchamiania najnowocześniejszych systemów, takich jak pierwszy na świecie wielkoformatowy superkomputer Nvidia GB300, który Microsoft niedawno udostępnił online do użytku OpenAI.
Ogromne wydatki wzbudziły obawy dotyczące potencjalnej bańki sztucznej inteligencji. Altman argumentował jednak, że rozbudowa jest konieczną odpowiedzią na rosnący popyt, wierząc, że „infrastruktura obliczeniowa będzie podstawą gospodarki przyszłości”.
Nowe partnerstwo oznacza także strategiczną ewolucję w stosunku do wcześniejszych, bardziej śmiałych planów sprzętowych OpenAI. Firma najwyraźniej porzuciła zgłoszoną przez siebie propozycję budowy globalnej sieci odlewni o wartości 7 bilionów dolarów, wybierając zamiast tego bardziej pragmatyczny, oparty na partnerstwie model z uznanymi liderami branży, takimi jak Broadcom i TSMC.