Szef finansowy OpenAI, Sarah Friar, w środę wycofała się z komentarzy wskazujących, że firma zajmująca się sztuczną inteligencją może potrzebować „federalnego wsparcia” w związku z ogromnymi wydatkami na technologię.
Po jej słowach na Wall Street Wydarzenie w dzienniku wywołało zamieszanie, Friar napisała na LinkedIn, że „zaciemniła sprawę”.
Potwierdziła, że firma nie żąda gwarancji rządowej. Szybkie odwrócenie sytuacji następuje po trudnych pytaniach o kondycję finansową OpenAI. Firma obiecała ponad bilion dolarów na nową infrastrukturę, budząc obawy co do swojego planu wysokiego ryzyka i ścieżki do osiągnięcia zysku.
Komentarz „Federalny mechanizm ochronny” wywołuje reakcję
Podczas wydarzenia Wall Street Journal Tech Live dyrektor finansowa OpenAI Sarah Friar zasugerowała, że firma szuka możliwości stworzenia ekosystemu banków, private equity i federalnej „zabezpieczenia” lub „gwarancji”, która mogłaby pomóc w finansowaniu inwestycji w najnowocześniejsze chipy.
Komentarz wygłoszony w trakcie dyskusji na temat ogromnego kapitału wymaganego do zbudowania sztucznej inteligencji nowej generacji sprawił, że komentarz natychmiast wywołał burzę w Internecie. Krytycy określili ten pomysł jako próbę zabezpieczenia finansowanego przez podatników siatki bezpieczeństwa dla prywatnego przedsięwzięcia wysokiego ryzyka.
Reakcja była szybka i ostra i przekształciła się w szersze obawy dotyczące bańki sztucznej inteligencji i odpowiedzialności korporacyjnej. Dla wielu pomysł ten był szczególnie wstrząsający, gdy pochodził od firmy, która niedawno zakończyła poważną restrukturyzację przedsiębiorstwa, aby stać się nastawiona na zysk Korporacją Pożytku Publicznego, co toruje drogę do potencjalnej oferty publicznej.
Eksperci i analitycy kwestionowali stosowność podmiotu rzekomo nastawionego na ogromne prywatne zyski, podnosząc pomysł dotacji publicznych.
Autor i krytyk sztucznej inteligencji Gary Marcus nalegał, aby obserwatorzy skontaktowali się ze swoimi przedstawicielami, kłócąc się: „Wyprzedź to, zanim bzdury o zbyt dużych, by upaść, staną się za późno, aby je zatrzymać”. Jej reakcja uwypukliła głęboki sceptycyzm co do podstaw finansowych wiodącej firmy w branży sztucznej inteligencji.
Wracając do tematu: „zamąciłem sedno”
W obliczu intensywnej kontroli strategii finansowej kierownictwo OpenAI szybko podjęło działania, aby powstrzymać szkody. W wyraźnym akcie selekcji komunikacji korporacyjnej, fra opublikowała wyjaśnienie na swoim profilu na LinkedIn późną środą, odnosząc się w sposób kontrowersyjny do kontrowersyjnego języka.
„Użyłam słowa „zabezpieczenie” i zaciemniło to sprawę” – napisała, dodając, że jej intencją było podkreślenie potrzeby silnego partnerstwa publiczno-prywatnego w celu budowania potencjału przemysłowego Ameryki w zakresie sztucznej inteligencji, a nie zabieganie o pomoc finansową.
Post Friara miał na celu zmianę tematu rozmowy i odejście od niej dotacje i interes narodowy, co jest powszechnym uzasadnieniem wsparcia rządowego w strategicznych sektorach technologii.
„Siła Ameryki w technologii będzie wynikać z budowania prawdziwego potencjału przemysłowego, co wymaga odegrania swojej roli przez sektor prywatny i rząd” – wyjaśniła, traktując zapotrzebowanie na kapitał jako element konkurencji geopolitycznej.
Pochwaliła także obecne zaangażowanie rządu, stwierdzając: „Jak już powiedziałem, rząd USA był niesamowicie przyszłościowy i naprawdę zrozumiał, że sztuczna inteligencja jest krajowym strategicznym atut.”
Starannie sformułowane wycofanie miało na celu stłumienie kontrowersji poprzez dostosowanie ogromnych potrzeb OpenAI do strategicznych celów krajowych, mając nadzieję na przekształcenie narracji o nadmiernym zaangażowaniu korporacji w narrację o patriotycznej konieczności.
Pytanie za bilion dolarów: kontrola wzrasta w związku z wysokimi wydatkami
W centrum kontrowersji leży podstawowe napięcie między zmieniającymi świat ambicjami OpenAI a jej astronomiczne koszty.
Komentarz Friara dotyczący „zabezpieczenia” trafił w czuły punkt, ponieważ firma podpisała już transakcje infrastrukturalne o wartości ponad 1,4 biliona dolarów.
Takie ogromne, długoterminowe zobowiązania uważa się za niezbędne do zabezpieczenia mocy obliczeniowej dla przyszłej sztucznej inteligencji. Jak niedawno stwierdził dyrektor generalny Sam Altman: „Skalowanie pionierskiej sztucznej inteligencji wymaga ogromnych i niezawodnych obliczeń”. Taka filozofia kieruje strategią zabezpieczania mocy obliczeniowej niemal za wszelką cenę.
Zaledwie kilka dni po podpisaniu ogromnej umowy na chmurę o wartości 38 miliardów dolarów z AWS, co stanowi przełomowe posunięcie umacniające jej strategię wielu chmur, kierownictwo firmy wykazuje wrażliwość na pytania dotyczące jej kondycji finansowej.
Nastąpiło to po renegocjowanym partnerstwie z Microsoft, które obejmowało dodatkowe zobowiązanie do zakupu usług Azure o wartości 250 miliardów dolarów.
Sama skala wydatków OpenAI wzbudziła zdziwienie wśród inwestorów i analityków. W niedawnym podkaście inwestor Brad Gerstner z Altimeter Capital bezpośrednio rzucił wyzwanie dyrektorowi generalnemu Samowi Altmanowi, w jaki sposób firma może sobie pozwolić na takie zobowiązania przy raportowanych przychodach wynoszących około 13 miliardów dolarów.
Altman zjeżył się na to pytanie, twierdząc, że przychody są „znacznie wyższe” i ucinając zapytanie ostrą ripostą: „Brad, jeśli chcesz sprzedać swoje akcje, znajdę ci kupca. Wystarczy.”
Zobacz to opublikuj post na Instagramie
Chociaż później wyraził skrajny optymizm, sugerując, że OpenAI może osiągnąć przychody w wysokości 100 miliardów dolarów do 2027 r., pełna napięcia wymiana zdań uwypukliła ogromną presję, pod jaką znajduje się firma.
Agresywne podejście OpenAI polegające na „budowaniu w miejscach publicznych” nie ogranicza się do finansów; firma niedawno wprowadziła na rynek nowe funkcje Sora zaledwie dwa dni po pozwaniu za naruszenie znaku towarowego dotyczącego nazwy produktu.
Usuwając, a następnie natychmiast wycofując pomysł gwarancji federalnej, OpenAI niechcący rzuciło jaśniejsze światło na warte bilion dolarów pytanie, czy jej strategia finansowa jest trwałym geniuszem, czy też bańką czekającą na pęknięcie.