La licorne de puces IA Groq envisage une expansion mondiale majeure après avoir obtenu un nouveau cycle de financement de 750 millions de dollars qui a porté sa valorisation à 6,9 milliards de dollars.

La startup basée aux États-Unis prévoit de créer plus d’une douzaine de nouveaux centres de données l’année prochaine, dans le but de répondre à la demande croissante pour sa technologie d’inférence d’IA à haut débit.

Cette décision fait suite à une série d’objectifs stratégiques. partenariats, y compris une alliance profonde avec l’entité nationale d’IA d’Arabie Saoudite, Humain, et une intégration avec la plateforme de développement Hugging Face.

L’expansion de Groq signale une poussée agressive vers défier des acteurs établis comme Nvidia en proposant du matériel spécialisé et moins coûteux.

La stratégie sous-jacente semble capturer le marché en plein essor de l’inférence de l’IA, une étape critique dans le déploiement d’applications d’IA.

Le fondateur et PDG de Groq, Jonathan Ross, a clairement défini cette mission, déclarant: « l’inférence définit cette ère de l’IA, et nous construisons l’infrastructure américaine qui la réalise avec des performances élevées. rapidité et faible coût.”

Alimenter l’expansion mondiale avec un nouveau trésor de guerre

Le dernier cycle de financement, annoncé le 1er octobre, a été mené par la société d’investissement de croissance Disruptive, avec le soutien important de Blackrock et Deutsche Telekom Capital Partners.

Cette injection de capitaux fait plus que doubler la valorisation de Groq en août 2024, soit 2,8 milliards de dollars, soulignant la confiance intense des investisseurs.

La dynamique financière est cruciale à mesure que l’entreprise fait évoluer son infrastructure. Cependant, le chemin n’est pas sans défis.

Il a été rapporté en juillet que Groq avait révisé à la baisse ses prévisions de revenus pour 2025 de plus de 2 milliards de dollars à 500 millions de dollars, une décision qui met en évidence la volatilité inhérente au marché du matériel d’IA.

Malgré cela, l’entreprise affirme que la demande dépasse de loin l’offre. Un porte-parole a précédemment souligné que même avec une infrastructure doublée, « il n’y aurait toujours pas assez de capacité pour répondre à la demande aujourd’hui. »

Les nouveaux centres de données prévus pour 2026 sont une réponse directe à cette pénurie de capacité.

Des plateformes de développement aux partenariats géopolitiques

Bien que le capital soit la clé, la stratégie de Groq repose sur l’intégration de l’écosystème. et des alliances puissantes.

Un mouvement transformateur a eu lieu en juin lorsque l’entreprise s’est associée à Hugging Face, une plateforme centrale pour les développeurs d’IA. Cette intégration fait de Groq un fournisseur d’inférence officiel sur la plateforme.

En rencontrant les développeurs là où ils travaillent, Groq réduit considérablement la barrière à l’entrée de sa technologie, créant un canal direct vers des millions d’utilisateurs potentiels.

Le soutien le plus important de Groq vient d’Arabie Saoudite, qui a finalisé un accord d’investissement de 1,5 milliard de dollars en février 2025. Ce partenariat fait de Groq un fournisseur technologique clé pour Humain, la nouvelle entité publique d’IA du Royaume.

Cette alliance avec Humain est le point culminant d’une relation approfondie. Il s’appuie sur des collaborations antérieures, notamment un projet de 2024 avec Aramco visant à établir un centre de données d’IA, qui a servi de premier terrain d’essai pour la technologie de Groq dans la région.

Cet investissement est la pierre angulaire de la Vision 2030 de l’Arabie saoudite, un plan national visant à diversifier l’économie au-delà du pétrole et à devenir une puissance technologique mondiale. En garantissant l’accès à la technologie de pointe des puces américaines, le Royaume vise à construire une capacité souveraine en matière d’IA, un objectif central de son plan d’infrastructure de plusieurs milliards de dollars.

Humain poursuit une stratégie souveraine ambitieuse en matière d’IA, en s’appuyant sur une approche à double puce : en utilisant Nvidia pour le gros du travail de formation en IA et Groq pour les tâches d’inférence à réponse rapide.

Cela reflète une compréhension nuancée du paysage matériel. Tareq Amin, PDG de Humain, a souligné l’urgence en déclarant :”Le monde a soif de capacité. Vous pouvez emprunter deux voies : vous y allez lentement et nous n’allons certainement pas lentement, ou vous allez vite.”

Le pari LPU dans un marché dominé par les GPU

Au cœur du défi de Groq à l’ordre établi se trouve sa conception sur mesure Architecture de l’unité de traitement du langage (LPU). Contrairement aux GPU polyvalents qui alimentent la plupart des acteurs de l’industrie de l’IA, les LPU sont conçus spécifiquement pour les exigences d’inférence de l’IA, en colocalisant le calcul et la mémoire sur la puce.

La conception du LPU répond directement à un changement fondamental dans les charges de travail de l’IA. Alors que les anciens modèles étaient limités au calcul, les transformateurs modernes sont limités à la mémoire.

Cela signifie que les gains de performances proviennent d’un accès plus rapide à la mémoire, et pas seulement de la puissance de traitement brute. L’architecture de Groq est un pari direct sur cette nouvelle réalité.

Cette conception spécialisée élimine les goulots d’étranglement de la bande passante mémoire qui peuvent entraver les performances du GPU dans les tâches basées sur le langage.

Les résultats sont impressionnants. La société indépendante Artificial Analysis a confirmé que le déploiement par Groq du modèle Qwen3 32B d’Alibaba fonctionne à environ 535 jetons par seconde.

Pour traduire cet avantage technique en part de marché, Groq fixe des tarifs agressifs pour ses services. La société offre l’accès au puissant modèle Qwen3 32B pour seulement 0,29 $ par million de jetons d’entrée et 0,59 $ par million de jetons de sortie, un tarif attractif conçu pour concurrencer les fournisseurs de cloud historiques.

Groq souligne qu’il est le seul fournisseur d’inférence rapide prenant en charge la fenêtre contextuelle complète de 131 000 jetons du modèle dans les charges de travail de production.

Cette combinaison de vitesse et de faible coût présente un avantage convaincant. valeur proposition contre des services comme AWS Bedrock et Google Vertex AI.

Cette stratégie présente un défi direct à la domination de Nvidia, qui repose sur ses puissants GPU et l’écosystème logiciel CUDA profondément ancré.

Cependant, Groq n’est pas seul. Des startups comme Positron entrent également dans la mêlée, en se concentrant sur l’efficacité avec des systèmes refroidis par air et axés sur la mémoire. conceptions.

L’industrie dans son ensemble surveille de près et la bataille pour la domination de l’IA se déplace de plus en plus vers le marché de l’inférence.

Jensen, PDG de Nvidia Huang a également reconnu l’importance stratégique de ce domaine, déclarant que « l’infrastructure de l’IA est une « infrastructure essentielle pour chaque nation » au même titre que l’électricité et l’Internet. »

Le parcours de Groq d’un concepteur de puces de niche à un concurrent intégré à une plateforme, alimenté par le capital-risque et la richesse souveraine, introduit une nouvelle dynamique disruptive dans cette course aux enjeux élevés.

Categories: IT Info