イーロン・マスクの xAI は、X でサブスクリプション モデルを通じて利用できる生成 AI チャットボットである Grok の機能を進化させることを目的としたスーパーコンピューターを構築する計画を発表しました。この情報は、The Information がレビューした投資家向けプレゼンテーションから明らかになりました。
Oracle および Nvidia との協力
このスーパーコンピューターの建設には、Nvidia の数万ドルの高額なコストを反映して、数十億ドルの費用がかかると予測されています。 H100 GPU が必要です。この多額の投資は、xAI の計画の規模と野心を強調しています。このスーパーコンピューターは、より洗練された言語モデルを開発するためのバックボーンとして機能し、Grok の機能を強化します。
xAI は、2025 年末までに完成する予定の計画されたスーパーコンピューターを開発するために Oracle との提携を検討しています。このプロジェクトでは、現在の最大クラスターの 4 倍の GPU 構成を使用します。マスク氏は、Grok の将来のバージョンには 100,000 個を超える H100 GPU が必要になると述べました。これは、Grok 2 のトレーニングに使用される 20,000 個の GPU を大幅に上回ります。この野心的なプロジェクトは、テスラのギガファクトリーに例えられ、「コンピューティングのギガファクトリー」と呼ばれています。 p>
Grok の市場での地位と特徴
Grok は、OpenAI の ChatGPT ほど広くは認識されていませんが、x.com からアクセスできますが、購読料が必要なため、独特の利点があります。Grok の特徴の 1 つは、X 上のすべての投稿に直接アクセスできることです。マスク氏は、ChatGPT に対する独自の制御を維持する OpenAI とは異なり、4 月にリリースされた現在のバージョンである Grok 1.5 は、次のような視覚情報を処理できると宣伝しています。
xAI スーパーコンピューターの開発は、AI 業界に大きな影響を与えることが期待されています。 Nvidia は、H100 GPU に対する需要の増加から大きな恩恵を受けることになります。さらに、この取り組みはセクター全体のイノベーションを促進し、OpenAI や Google などの競合他社が競争力を維持するためにモデルを改善するよう促すことが期待されています。ただし、膨大な計算能力が必要となるため、エネルギー消費に関する懸念が生じます。マスク氏が再生可能エネルギー源の利用や水の使用量を最小限に抑える取り組みを通じて、これらの環境課題にどのように対処するかはまだ分からない。