xAI d’Elon Musk a annoncé son intention de construire un supercalculateur visant à faire progresser les capacités de Grok, un chatbot génératif d’IA disponible sur X via un modèle d’abonnement. Ces informations sont issues d’une présentation aux investisseurs examinée par The Information.
Collaboration avec Oracle et Nvidia
La construction de ce supercalculateur devrait coûter des milliards de dollars, reflétant le coût élevé des dizaines de milliers de Nvidia. GPU H100 requis. Cet investissement substantiel souligne l’ampleur et l’ambition des projets de xAI. Le supercalculateur servira de base au développement de modèles de langage plus sophistiqués, améliorant ainsi les capacités de Grok.
xAI envisage un partenariat avec Oracle pour développer le supercalculateur prévu, qui devrait être achevé d’ici la fin de 2025. Le projet utilisera une configuration GPU quatre fois plus grande que les plus grands clusters actuels. Musk a indiqué que les futures versions de Grok nécessiteront plus de 100 000 GPU H100, soit bien plus que les 20 000 GPU utilisés pour la formation de Grok 2. Ce projet ambitieux a été comparé aux gigafactories de Tesla, le qualifiant de « gigafactory de calcul ». p>
Position et caractéristiques de Grok sur le marché
Grok, bien qu’il ne soit pas aussi largement reconnu que ChatGPT d’OpenAI, offre des avantages uniques. Il est accessible sur x.com mais nécessite un abonnement. L’une des caractéristiques distinctives de Grok est son accès direct à toutes les publications sur X. Musk présente les sources d’informations comme une alternative aux sources d’information traditionnelles. Contrairement à OpenAI, qui conserve un contrôle exclusif sur ChatGPT, xAI a rendu open source les poids et l’architecture de Grok-1. La version actuelle, Grok 1.5, publiée en avril, peut traiter des informations visuelles telles que. sous forme de photographies et de diagrammes en plus du texte.
Le développement d’un supercalculateur xAI devrait avoir des implications significatives pour l’industrie de l’IA. Nvidia devrait grandement bénéficier de la demande accrue pour ses GPU H100. De plus, cette initiative devrait stimuler l’innovation dans l’ensemble du secteur, poussant des concurrents comme OpenAI et Google à améliorer leurs modèles pour rester compétitifs. Cependant, l’immense puissance de calcul requise suscite des inquiétudes quant à la consommation d’énergie. Il reste à voir comment Musk relèvera ces défis environnementaux, potentiellement grâce à l’utilisation de sources d’énergie renouvelables et à des efforts visant à minimiser la consommation d’eau.