AI Chip Unicorn Groq sta tracciando un’importante espansione globale dopo aver ottenuto un nuovo round di finanziamento da $ 750 milioni che ha aumentato la sua valutazione a $ 6,9 miliardi. href=”https://www.wsj.com/business/ai-unicorn-groq-charts-data-center-expansion-plan-5d6a130e”target=”_ blank”> Più di una dozzina di nuovi data center , mirando a soddisfare la domanda per il suo aumento della sua trasmissione ad alta informazione. di partnership strategiche, tra cui una profonda alleanza con l’entità nazionale di AI dell’Arabia Saudita, Humani e un’integrazione con la piattaforma sviluppatore che abbraccia il volto.

La strategia sottostante sembra catturare il mercato delle inferenze dell’IA in forte espansione, una fase critica nello schieramento delle applicazioni di intelligenza artificiale. infrastruttura che lo offre ad alta velocità e basso costo.”

alimentare l’espansione globale con una nuova cassa di guerra

L’ultimo round di finanziamento, annunciato il 1 ° ottobre, è stato guidato dalla società di investimento di crescita, con un sostegno significativo da BlackRock e Deutsche Telekom Capital Partners .

Questa infusione di capitale più che rastrellare la valutazione di August 2024 di $ 2,8 Billion, UNDENSERA Fiducia.

Il momento finanziario è cruciale poiché la società ridimensiona la sua infrastruttura. Tuttavia, il percorso non è privo di sfide.

È stato segnalato a luglio che Groq ha rivisto le sue previsioni di entrate del 2025 in calo da oltre $ 2 miliardi a $ 500 milioni, una mossa che evidenzia la volatilità intrinseca del mercato dell’AI.

Nonostante ciò, la società afferma che la domanda di estensione di distanza. A spokesperson previously noted that even with doubled infrastructure, “there still wouldn’t be enough capacity to meet the demand today.”

The new data centers planned for 2026 are a direct response to this capacity crunch.

From Developer Platforms to Geopolitical Partnerships

While capital is key, Groq’s strategy hinges on ecosystem integration and Potenti alleanze.

Una mossa trasformativa è arrivata a giugno quando la società ha collaborato con Hugging Face, un hub centrale per gli sviluppatori di intelligenza artificiale. Questa integrazione rende groq an Provider di inferenza ufficiale sulla piattaforma .

Incontrando gli sviluppatori dove funzionano, Groq minimizza significativamente la barriera per l’ingresso per la sua tecnologia, creando un canale diretto a milioni di utenti. Il sostegno più significativo proviene dall’Arabia Saudita, che ha concluso un accordo di investimento da 1,5 miliardi di dollari nel febbraio 2025. Questa partnership rende Groq un fornitore di tecnologia chiave per Humani, la nuova entità AI di proprietà statale del Regno.

Questa alleanza con l’umano è il culmine di una relazione approfondita. Si basa su collaborazioni precedenti, incluso un progetto del 2024 con Aramco per stabilire un data center di intelligenza artificiale, che è servito da terreno di prova precoce per la tecnologia di Groq nella regione.

L’investimento è una pietra miliare della Vision 2030 dell’Arabia Saudita, un piano nazionale per diversificare l’economia oltre il petrolio e diventare un potere tecnologico globale. Garanziando l’accesso alla tecnologia dei chip statunitensi all’avanguardia, il regno mira a costruire una capacità di AI sovrana, un obiettivo centrale per il suo piano infrastrutturale multimiliardario.

Questo riflette una comprensione sfumata del panorama hardware. Humain CEO Tareq Amin stressed the urgency, saying, “the world is hungry for capacity. There are two paths you could take: you take it slow and we are definitely not taking it slow, or you go fast.”

The LPU Bet in a GPU-Dominated Market

At the heart of Groq’s challenge to the established order is its custom-built Architettura di elaborazione linguistica (LPU) . A differenza delle GPU versatili che alimentano la maggior parte dell’industria dell’intelligenza artificiale, le LPU sono progettate specificamente per le esigenze dell’inferenza di AI, co-localizzando il calcolo e la memoria sul chip.

Il design della LPU affronta direttamente un cambiamento fondamentale nei carichi di lavoro AI. Mentre i modelli più vecchi erano legati al calcolo, i trasformatori moderni sono legati alla memoria.

Ciò significa che i guadagni delle prestazioni provengono da un accesso più rapido della memoria, non solo dalla potenza di elaborazione grezza. L’architettura di Groq è una scommessa diretta su questa nuova realtà.

Questo design specializzato elimina i colli di bottiglia della larghezza di banda della memoria che possono ostacolare le prestazioni della GPU in compiti basati sulla lingua.

I risultati sono impressionanti. L’analisi artificiale della società indipendente ha confermato lo spiegamento da parte di GroQ del modello QWEN3 32B di Alibaba, funziona a circa 535 token al secondo.

Per tradurre questo vantaggio tecnico in quota di mercato, GroQ sta valutando in modo aggressivo i suoi servizi. La società offre l’accesso al potente modello QWEN3 32B a soli $ 0,29 per milione di token di input e $ 0,59 per milione di token di uscita, un tasso convincente progettato per sottovalutare i fornitori di cloud in incumbenti. Proposta contro servizi come AWS Bedrock e Google Vertex Ai.

Questa strategia presenta una sfida diretta al dominio di Nvidia, che si basa sui suoi potenti GPU e sull’ecosistema software CUDA profondamente radicato.

Tuttavia, Groq non è solo. Startup come Positron è anche il fray> focalizzante, focalizzati con AirCoold-Couldfit-Enterprises”Target=”_ Blank”> Positron è anche il fray di Frays. Designs.

L’industria più ampia sta osservando da vicino e la battaglia per il dominio dell’IA si sta spostando sempre più verso il

Groq Viaggio da un nuovo designer di nicchia.