Oracle wraz ze strategicznym partnerem firmą NVIDIA zaprezentowała dzisiaj kolejną generację infrastruktury natywnej dla sztucznej inteligencji, na czele której znajduje się ogromny klaster superkomputerowy OCI Zettascale10 i głęboko zintegrowana baza danych Oracle AI Database 26ai.
Ogłoszone na konferencji AI World nowe platformy zostały zaprojektowane tak, aby obsługiwać najbardziej wymagające obciążenia AI, od szkolenia podstawowych modeli po przetwarzanie złożonych danych analytics.
To wprowadzenie na rynek ważnego produktu umacnia pozycję Oracle jako kluczowego handlarza bronią w wyścigu obliczeniowym AI. Pogłębia swoje więzi z firmą NVIDIA i rozwija swoją strategię mającą na celu zapewnienie podstawowych „kiloków i łopat” dla całej branży sztucznej inteligencji.
Arsenał sztucznej inteligencji Oracle: Zettascale10 i Baza danych 26ai
Głównym elementem ogłoszenia jest OCI Zettascale10, ewolucja pierwszego klastra zettascale firmy Oracle wprowadzonego we wrześniu 2024 r. Jest to superkomputer w chmurze zaprojektowany z myślą o ekstremalnej skali, łącząc setki tysięcy procesorów graficznych NVIDIA w klastry o mocy wielu gigawatów, które zapewniają niespotykaną dotąd 16 zettaflops maksymalnej wydajności.
Te masywne klastry mieszczą się w kampusach centrów danych o mocy gigawatów, zoptymalizowanych pod kątem gęstości w promieniu dwóch kilometrów, aby zapewnić najlepsze możliwe opóźnienia między procesorami graficznymi. Dokładnie taką architekturę wdraża się z OpenAI we flagowym ośrodku superkomputerów Stargate w Abilene w Teksasie.
Główną innowacją systemu jest nowa architektura sieciowa Acceleron RoCE firmy Oracle. Konstrukcja ta sprytnie wykorzystuje możliwości przełączania wbudowane w nowoczesne karty sieciowe GPU (NIC), umożliwiając im jednoczesne łączenie się z wieloma fizycznie odizolowanymi płaszczyznami sieciowymi. Tworzy to coś, co Oracle nazywa „szeroką, płytką i odporną strukturą”.
To podejście radykalnie zwiększa niezawodność zadań AI na dużą skalę, automatycznie przenosząc ruch z zatłoczonych lub niestabilnych samolotów, unikając kosztownych przestojów i restartów. Wykorzystuje również energooszczędną optykę, aby obniżyć koszty sieci i chłodzenia bez poświęcania przepustowości, przeznaczając większą część budżetu mocy na obliczenia.
Wiceprezes ds. infrastruktury OpenAI, Peter Hoeschele, pochwalił projekt, zauważając: „Wysoce skalowalna, niestandardowa konstrukcja RoCE maksymalizuje wydajność całej sieci w skali gigawatów, jednocześnie skupiając większość mocy na obliczeniach.”
Uzupełnieniem sprzętu jest Oracle AI Database 26ai to przełomowa wersja długoterminowego wsparcia, która architektuje sztuczną inteligencję bezpośrednio w flagowej bazie danych firmy.
To nie jest tylko dodatek; stanowi fundamentalne przeprojektowanie, aby natywnie i bezpiecznie obsługiwać obciążenia AI. Najważniejszą z nowych funkcji jest ujednolicone hybrydowe wyszukiwanie wektorowe.
Baza danych 26ai umożliwia programistom łączenie wyszukiwania wektorowego AI z tradycyjnymi wyszukiwaniami relacyjnymi, tekstowymi, JSON, wykresami wiedzy i przestrzennymi w jednym zapytaniu, umożliwiając znacznie bardziej wyrafinowane wnioski ze złożonych, multimodalnych danych przedsiębiorstwa.
[zawartość osadzona]
Baza danych wprowadza również wbudowaną obsługę agentycznej sztucznej inteligencji przepływy pracy za pośrednictwem protokołu Model Context Protocol (MCP) i prywatnego kontenera usług AI. Kontener ten zapewnia wstępnie zbudowane środowisko do bezpiecznego działania prywatnych instancji modeli sztucznej inteligencji, które można wdrożyć w dowolnym miejscu, od chmury publicznej po lokalne centra danych.
Głębokie sojusz z firmą NVIDIA
Nowe produkty stanowią dowód głębokiego, wielowarstwowego partnerstwa z firmą NVIDIA, które wykracza daleko poza krzem. Baza danych AI Database 26ai firmy Oracle jest ściśle zintegrowana ze stosem oprogramowania firmy NVIDIA, oferując natywną obsługę mikrousług NVIDIA NIM.
Umożliwia to programistom łatwe wdrażanie złożonych potoków generacji wspomaganej pobieraniem (RAG). Baza danych została również zaprojektowana tak, aby wykorzystywać bibliotekę cuVS firmy NVIDIA do indeksowania wektorowego przyspieszanego przez procesor graficzny, co stanowi krytyczne wąskie gardło w wielu aplikacjach AI. Co więcej, NVIDIA AI Enterprise jest teraz natywnie dostępna w konsoli OCI, usprawniając dostęp do pełnego zestawu narzędzi.
Współpraca była głównym tematem wydarzenia. Mahesh Thiagarajan, wiceprezes Oracle ds. infrastruktury chmurowej, stwierdził: „Uważam, że rynek sztucznej inteligencji został zdefiniowany przez kluczowe partnerstwa, takie jak to pomiędzy Oracle i NVIDIA.”
Ian Buck z firmy NVIDIA powtórzył to, mówiąc: „Dzięki najnowszej współpracy Oracle i NVIDIA wyznaczają nowe granice w najnowocześniejszych, przyspieszonych obliczeniach…”, formułując partnerstwo jako czynnik zwielokrotniający siłę na rzecz przyjęcia sztucznej inteligencji w przedsiębiorstwach.
Napędzanie wielkiego wyścigu zbrojeń obliczeniowych AI
Te ogłoszenia stanowią najnowszą salwę Oracle w trwającym wyścigu zbrojeń obliczeniowych AI. Ta kapitałochłonna wojna między gigantami technologicznymi zmienia obecnie gospodarkę. Analiza przeprowadzona przez ekonomistę z Harvardu wykazała, że wydatki na infrastrukturę sztucznej inteligencji odpowiadały za 92% wzrostu PKB Stanów Zjednoczonych w pierwszej połowie 2025 r.
Pilność tej kwestii jest wyraźna i wynika z egzystencjalnej obawy przed pozostawieniem w tyle. Jak bez ogródek stwierdził prezes OpenAI Greg Brockman: „O wiele bardziej martwię się, że poniesiemy porażkę z powodu zbyt małej mocy obliczeniowej niż zbyt dużej”.
Takie nastawienie napędza inicjatywy warte bilion dolarów, takie jak Projekt Stargate, którego Oracle odegrał kluczową rolę w ponownym uruchomieniu po jego zablokowaniu na początku tego roku.
Sama skala inwestycji wzbudziła obawy dotyczące bańki przemysłowej, a niektórzy krytycy wskazują na model „finansowania okrężnego”, w którym partnerzy inwestują w projekty tylko po to, aby zwrócić się ze sprzedażą sprzętu. Jednak liderzy branży upierają się, że rozbudowa jest konieczną reakcją na ogromny zastój obliczeniowy.
Strategia „supermarketu sztucznej inteligencji”: zabezpieczanie zakładów z AMD
Strategia Oracle nie polega na konkurowaniu w oparciu o budowanie podstawowych modeli, ale na byciu neutralnym „supermarketem sztucznej inteligencji” dla całej branży. Wydaje się, że takie podejście się opłaca, przyciągając kluczowych graczy, którzy potrzebują niezawodnej, wysokowydajnej infrastruktury niezależnej od dostawców.
Doskonałym przykładem jest historyczna pięcioletnia umowa OpenAI na chmurę z Oracle o wartości 300 miliardów dolarów, mająca na celu zabezpieczenie ogromnych 4,5 gigawatów mocy obliczeniowej na potrzeby projektu Stargate. Już sama ta umowa zapewnia potężną kotwicę dla działalności Oracle w zakresie sztucznej inteligencji w chmurze.
W posunięciu, które zdecydowanie potwierdza tę strategię, Oracle ogłosiło również duże partnerstwo z AMD. Firma planuje wdrożyć 50 000 nowych chipów AMD Instinct MI450 AI w swojej chmurze, zapewniając klientom istotną alternatywę dla sprzętu NVIDIA.
Ta dywersyfikacja bezpośrednio odpowiada na obawy całej branży dotyczące odporności łańcucha dostaw. Wynika to również z ostatnich raportów, że marże własnej chmury AI Oracle były zmniejszane przez wysoki koszt chipów, przez co drugie źródło stało się strategiczną koniecznością.
Wiceprezes Oracle Cloud, Karan Batta, wyraził zaufanie do nowej oferty, mówiąc reporterom: „Mamy wrażenie, że klienci bardzo, bardzo dobrze przyjmą AMD – szczególnie w obszarze wnioskowania”.
Dla klientów ta zwiększona konkurencja obiecuje większy wybór i lepsze ceny. Analityk Holger Mueller zauważył to szersze znaczenie, stwierdzając: „Wspaniała sztuczna inteligencja potrzebuje świetnych danych. Dzięki Oracle AI Database 26ai klienci zyskują jedno i drugie”.