AI Chip Unicorn GroQ este în grafic o extindere globală majoră după ce a asigurat o nouă rundă de finanțare de 750 de milioane de dolari, care a crescut evaluarea sa la 6,9 miliarde de dolari.

Startup-ul din SUA intenționează să stabilească mai mult de o duzină de noi centre de date anul viitor , vizând să îndeplinească cererea de a muta o serie de tehnologie de inferență strategică. Parteneriate, inclusiv o alianță profundă cu entitatea națională AI națională a Arabiei Saudite, Humain și o integrare cu platforma de dezvoltatori care îmbrățișează fața.

Strategia de bază pare să surprindă piața în plină expansiune AI Inference, o etapă critică în implementarea aplicațiilor AI.

fondatorul și CEO-ul lui Groq, Jonathan Ross, încadrat în mod clar această misiune, afirmând, „Inferența este definitând această rată a AI, iar noi construim în american cu viteză mare și costuri reduse.”

alimentează extinderea globală cu un nou piept de război

Cea mai recentă rundă de finanțare, anunțată la 1 octombrie, a fost condusă de firma de investiții de creștere, cu un sprijin semnificativ de la BlackRock și Deutsche Telekom Capital Partners .

Această perfuzie de capital mai mult decât dublurile de evaluare a lui Groq din august 2024 de 2,8 miliarde de dolari, sublinierea încrederii intense a investitorilor.

Momentul financiar este crucial, deoarece compania scalează infrastructura sa. Cu toate acestea, calea nu este lipsită de provocări.

S-a raportat în iulie că GroQ și-a revizuit prognoza de venituri din 2025 în scădere de la peste 2 miliarde de dolari la 500 de milioane de dolari, o mișcare care evidențiază această volatilitate inerentă a pieței hardware AI. Un purtător de cuvânt a remarcat anterior că, chiar și cu infrastructura dublată, „încă nu ar exista o capacitate suficientă pentru a răspunde cererii de astăzi. integrare și alianțe puternice.

O mișcare transformatoare a venit în iunie, când compania s-a asociat cu Hugging Face, un hub central pentru dezvoltatorii AI. Această integrare face ca GroQ să fie Furnizor oficial de inferență pe platformă .

Întâlnind dezvoltatorii în care lucrează în mod semnificativ, GroQ scade semnificativ bariera la intrarea pentru tehnologia sa, creând un canal direct la milioane de potențiali utilizatori. Susținerea provine din Arabia Saudită, care a finalizat un acord de investiții de 1,5 miliarde de dolari în februarie 2025. Acest parteneriat face din GroQ un furnizor cheie de tehnologie pentru Humain, noua entitate AI de stat a Regatului. Se bazează pe colaborări anterioare, inclusiv un proiect din 2024 cu Aramco pentru a înființa un centru de date AI, care a servit ca teren de testare timpurie pentru tehnologia GroQ din regiune.

Investiția este o piatră de temelie a Visionului Arabiei Saudite 2030, un plan național de diversificare a economiei dincolo de petrol și de a deveni o putere tehnologică globală. Prin asigurarea accesului la tehnologia de ultimă generație a cipurilor americane, regatul își propune să construiască o capacitate de AI suverană, un obiectiv central pentru planul său de infrastructură de mai multe miliarde de dolari.

Humain urmărește o strategie ambițioasă de suverană AI, utilizând o abordare dublă-cip: utilizarea sarcinilor de referință pentru creșterea greutății. reflectă o înțelegere nuanțată a peisajului hardware. CEO-ul Humain, Tareq Amin, a subliniat urgența, spunând: „Lumea îi este foame de capacitate. Există două căi pe care le-ați putea lua: o luați lent și cu siguranță nu o luăm lent, sau mergeți repede. href=”https://groq.com/lpu-architecture”target=”_ blank”> unitatea de procesare a limbii (LPU) Arhitectură . Spre deosebire de GPU-urile versatile care alimentează cea mai mare parte a industriei AI, LPU-urile sunt concepute special pentru cerințele de inferență AI, co-localizarea calculului și memoria pe cip.

Proiectarea LPU abordează direct o schimbare fundamentală a sarcinilor de lucru AI. În timp ce modelele mai vechi erau legate de calcul, transformatoarele moderne sunt legate de memorie.

Aceasta înseamnă că câștigurile de performanță provin din acces mai rapid la memorie, nu doar de putere de procesare brută. Arhitectura lui GroQ este un pariu direct pe această nouă realitate.

Acest design specializat elimină blocajele de lățime de bandă de memorie care pot împiedica performanța GPU în sarcinile bazate pe limbaj.

Rezultatele sunt impresionante. Analiza artificială a firmei independente a confirmat implementarea lui GroQ a modelului QWEN3 32B al Alibaba rulează la aproximativ 535 de jetoane pe secundă.

Pentru a traduce această margine tehnică în cota de piață, GroQ își prețuiește agresiv serviciile. Compania oferă acces la puternicul model QWEN3 32B, la doar 0,29 USD pe milion de jetoane de intrare și 0,59 USD pe milion de jetoane de ieșire, o rată convingătoare concepută pentru a reduce furnizorii de cloud. Propunerea de valoare împotriva serviciilor precum AWS Bedrock și Google Vertex AI.

Această strategie prezintă o provocare directă pentru dominanța Nvidia, care este construită pe GPU-urile sale puternice și pe ecosistemul software CUDA profund înrădăcinat. Startup-uri precum pozitron, de asemenea Proiecte.

Industria mai largă urmărește îndeaproape, iar bătălia pentru dominanța AI se îndreaptă din ce în ce mai mult către Inference Market Huang a recunoscut, de asemenea, importanța strategică a acestui domeniu, afirmând că „infrastructura AI este ca„ infrastructură esențială pentru fiecare națiune “ca electricitate și internet.

Categories: IT Info