Google は AI ハードウェアの優位性を獲得するための取り組みを強化しています。木曜日、同社は最も強力なカスタム チップである Ironwood TPU がクラウド顧客向けに一般提供を開始すると発表しました

AI 推論の急増する需要に対応するために構築されたこの新しいプロセッサは、次のような課題に取り組みます。チャットボットの背後にあるリアルタイム作業。これらの AI システムをサポートするために、Google は日常のコンピューティング タスク向けにコスト効率の高い新しい Axion プロセッサも発売しました。

この戦略的な動きは、Anthropic などの主要クライアントをターゲットにしており、AI インフラストラクチャを巡る重要な戦いにおいて市場リーダーである Nvidia に対する Google の挑戦をさらに強化します。

アイアンウッド: 推論時代のカスタム シリコン パワーハウス

次世代の AI モデルを強化するために、Google は垂直統合型システムに賭けています。

この取り組みの中心となるのは、4 月に初公開された第 7 世代 Tensor Processing Unit Ironwood です。

現在一般提供に移行しているこのチップは、Google が「推論の時代」と呼ぶ、大規模なモデルのトレーニングから、有用で応答性の高いインタラクションを大規模に展開する移行への移行に向けて専用に構築されています。

Ironwood は、パフォーマンスの大幅な飛躍を実現し、トレーニングとサービス提供の両方の複雑な要求を処理するように設計されています。

Google によると、新しいアーキテクチャでは、以前の TPU v5p と比較してピーク パフォーマンスが 10 倍向上し、以前の Trillium と比較してチップあたりのパフォーマンスが 4 倍以上優れています。

Ironwood システムは、最大の構成で 42.5 エクサ FLOPS という驚異的な FP8 計算能力を達成できます。これは、現代の AI ワークロードの大半を占める低精度の演算に不可欠な指標です。

この生の能力は、効率性の重視と結びついています。 Ironwood は、Trillium の 2 倍のワットあたりのパフォーマンスを誇り、これまで Google で最も電力効率の高いチップとなっています。

Google TPU ワットあたりのピーク フロップ数 (出典: Google)

このレベルのパフォーマンスは、拡張できる場合にのみ役に立ちます。Ironwood のアーキテクチャは、大規模で一貫した動作を実現するように設計されています。

単一の Ironwood の「スーパーポッド」は、最大 9,216 個の個別のチップをリンクでき、それらは単一の統合されたスーパーコンピューターとして機能します。 このシステムの基盤は、チップ間に最大 9.6 テラビット/秒の帯域幅を提供する高速チップ間相互接続 (ICI) ファブリックであり、高密度の 3D トーラス トポロジを作成します。

このネットワークにより、チップは 1.77 ペタバイトの高帯域幅メモリ (HBM) の巨大な共有プールにアクセスできるようになり、大規模な AI ジョブを機能不全にする可能性のあるデータ ボトルネックが排除されます。

これらのチップのクラスターを接続するために、Google は動的な光回線スイッチ (OCS) ネットワークを採用しています。この再構成可能なファブリックは、スケールと復元力の両方にとって鍵となります。

同社の技術概要で詳しく説明されているように、OCS は故障したハードウェアを光学的にバイパスし、正常なユニットのみを接続する新しい完全な回路を確立することができます。

Google Ironwood TPU アーキテクチャ (出典: Google)

数週間続くトレーニング ジョブを実行しているお客様にとって、この動的フォールト トレランスは、コストのかかる中断を防ぎ、システム全体の生産的な稼働時間を最大化する重要な機能です。

重要なことは、この高度なハードウェアは、システムレベルの最適化の哲学に基づいて構築された共同設計されたソフトウェア スタックと深く統合されているということです。その中核となるのは Google の高速線形代数 (XLA) コンパイラで、JAX や PyTorch などの一般的なフレームワークの高レベル コードを高度に最適化された機械命令に変換します。

このコンパイラは、密行列乗算ユニット (MXU) やベクトル処理ユニット (VPU) などの TPU の特殊なハードウェアをターゲットにするように明示的に設計されています。オペレーションを効率的なカーネルに自動的に融合することで、XLA は強力な「すぐに使える」パフォーマンスを提供します。

推論として、同社は、新しい統合されたシステムを通じて Ironwood 上の vLLM などの最先端のサービス エンジンを有効にすることで、スタックをさらに最適化しました。

Google のハードウェア推進は、より大規模で多角的なインフラストラクチャ戦略の一部です。

最近のレポートでは、オーストラリアのクリスマス島に地政学的に戦略的な AI データ センターを建設することから、宇宙に TPU を搭載したデータ センターを構築することを目的とした「ムーンショット」プロジェクト サンキャッチャーに至るまで、Google の野心的な計画のいくつかを取り上げてきました。

この取り組みは、AI の最前線であり続けるために必要な膨大なリソースに焦点を当てています。

[埋め込みコンテンツ]

Axion の拡張: 汎用コンピューティングの再定義

AI に特化したアクセラレータを超えて、最新のアプリケーションには日常のワークロードのための強力で効率的なバックボーンが必要です。

Google は、カスタム Arm ベースの Axion CPU ポートフォリオの拡張でこの問題に取り組んでいます。同社は、同社初の Arm ベースのベアメタル インスタンスである C4A メタルの今後のプレビューと並行して、新しい N4A 仮想マシンが現在プレビュー中であると発表しました。

優れた価格パフォーマンスを提供するように設計されたこれらのプロセッサは、データ準備、コンテナ化されたマイクロサービス、Web サービスなどの AI アプリケーションをサポートする汎用タスクを処理します。

Google Axion CPU (出典: Google)

初期のお客様からのフィードバックにより、大きなメリットが明らかになりました。 ZoomInfo のチーフ インフラストラクチャ アーキテクトである Sergei Koren 氏は、新しいインスタンスを賞賛し、「新しい N4A インスタンスのプレビューでは、x86 ベースの対応物と比較して、これらの主要なワークロードの価格パフォーマンスが 60% 向上したことが測定されました。」

同様に、Vimeo は、x86 ベースの VM と比較して、コアのビデオ トランスコーディング ワークロードのパフォーマンスが 30% 向上したと報告しました。

Google は、 Axion を従来のプロセッサに代わる明確でより効率的な代替手段として位置付けています。

Google Cloud の AI およびコンピューティング インフラストラクチャ担当副社長兼ゼネラルである Mark Lohmeyer 氏によると、「同等の x86 世代プロセッサよりも 50% 高いパフォーマンスがあり、同等の x86 ベースのインスタンスよりも 60% 高いエネルギー効率を備えています。」

戦略的導入と AI 軍拡競争

Anthropic の大規模な取り組みは、Google のカスタム シリコンに対する強力な検証として機能します。 Claude ファミリーのモデルの開発者である AI ラボは、最大 100 万の TPU にアクセスする予定であり、トレーニングと推論の両方に対するプラットフォームの機能に強い自信を持っていることを示しています。

同社のコンピューティング責任者である James Bradbury 氏は、その利点について次のように説明しました。「Ironwood の推論パフォーマンスとトレーニングのスケーラビリティの両方の向上により、顧客が期待する速度と信頼性を維持しながら、効率的に拡張できるようになります。」

しかし、この大規模な取引は、複雑なマルチクラウドの現実の中に存在します。この提携は Google にとって大きな勝利ですが、報告書によると、Anthropic はアマゾン ウェブ サービスが引き続き主要なクラウド プロバイダーであり、多様なインフラストラクチャ戦略を維持していることが明らかになりました。

これは、大手 AI ラボが単一ベンダーへの依存を避けているという広範な業界トレンドを反映しており、これは OpenAI が中核となる Microsoft Azure インフラストラクチャを補うために Google Cloud を使い始めたときに以前見られた戦略です。

熾烈な AI 軍拡競争の中で展開する Google のカスタム シリコンへの取り組みは、Nvidia の企業に真っ向から挑戦することを目的としています。市場の優位性。競争するには驚異的な投資が必要です。

需要の急増に対応するため、Google は最近、年間の設備投資の上限を 850 億ドルから 930 億ドルに引き上げました。

このような巨額の資金投入は、基盤となるハードウェアの制御が今や重要な競争上の利点とみなされていることを示しています。

高度に専門化された Ironwood TPU と効率的な汎用 Axion CPU の両方を展開することで、Google は包括的な、

同社は、チップからデータセンターに至るまで、最適化されたコスト効率の高いハードウェア スタックを顧客に提供することが、AI 革命の次の段階で勝利を収める鍵になると確信しています。