クアルコムは月曜日に AI データセンター市場に参入し、リーダーである Nvidia と AMD に対抗する新しいチップを発売しました。クアルコムは、成長する AI 推論市場向けに構築された AI200 および AI250 アクセラレータを発表しました。

クアルコムは、顧客に低コストと高効率を提供するために、大規模なメモリ容量を備えた設計に賭けています。その動きは、モバイル技術大手にとって大きな戦略的転換となる。投資家はこのニュースを歓迎し、同社の株価は15%上昇した。新しいハードウェアは 2026 年に登場する予定で、AI 軍拡競争に強力な新たなプレーヤーが加わります。

AI 推論市場への戦略的賭け

クアルコムは、低電力モバイル プロセッサにおける数十年の専門知識を活用し、データセンター向けに計算された戦略を立てる。同社は、GPU 大手が支配する市場である AI トレーニング分野での Nvidia との直接対決を回避しています。

代わりに、急速に拡大する推論市場をターゲットにしています。 リアルタイム アプリケーション用にトレーニング済みのモデルを実行する必要があります。モバイルファーストへの注力からの戦略的転換は、計画的な取り組みでした。

「私たちは最初に他のドメインで自分自身を証明したいと考えていましたが、そこで強みを築けば、データセンター レベルへのワンランク上のステップに進むのは非常に簡単でした。」とクアルコムの上級副社長兼ゼネラルマネージャーであるドゥルガ・マラディ氏は述べています。

この推論への重点は、Nvidia の挑戦者の間で共有される戦略です。 Intel は最近、同様の目標を掲げた独自の「Crescent Island」GPU を発表しました。 Intel の CTO Sachin Katti 氏は次のように説明しています。「AI は、静的トレーニングから、エージェント AI によって駆動されるリアルタイムのどこでも推論に移行しています。」

この業界全体の変化により、トレーニングに必要な生のコンピューティング能力よりもワットあたりのパフォーマンスと運用コストの削減を優先する新しいアーキテクチャへの扉が開かれています。

ハードウェアをサポートするために、クアルコムは 簡単に導入できるように設計されたオープン ソフトウェア スタックを展開します。

主要な AI とのシームレスな互換性を強調することで フレームワークと、Hugging Face などの開発者ハブからのモデルのワンクリック展開を利用して、同社は Nvidia 独自の CUDA エコシステムに代わる実行可能な代替手段を提供し、企業やクラウド プロバイダーの負担を軽減することを目指しています。

マッスルよりもメモリ: チップ設計への異なるアプローチ

GPU 中心の現状に対する直接的な挑戦として、 クアルコムの新しいアクセラレータは、メモリ容量と効率を優先します。 AI200 カードは、768 GB の巨大な LPDDR メモリを搭載します。

これは、Nvidia や AMD のハイエンド チップに搭載されている高価な高帯域幅メモリ (HBM) 標準からの戦略的脱却を表しています。

HBM は優れた帯域幅を提供しますが、コストが高く、サプライ チェーンのボトルネックになる可能性があります。クアルコムは、LPDDR を使用することで、大規模な AI モデルを 1 枚のカードにロードし、複数のチップ間のコストと電力を大量に消費するデータ転送の必要性を軽減することを目指しています。

その設計哲学は、データセンター事業者の総所有コスト (TCO) を削減することに重点を置いています。 2027 年に計画されている、より高度な AI250 は、ニアメモリ コンピューティング レイアウトでこのコンセプトをさらに推進します。

クアルコムは、このアーキテクチャにより 10 倍を超える実効メモリ帯域幅を実現でき、推論タスクの速度を低下させることが多いボトルネックに対処できると主張しています。クアルコムの上級副社長兼ゼネラルであるドゥルガ・マラディ氏によると、「クアルコム AI200 と AI250 により、ラックスケール AI 推論の可能性を再定義しています。」

クアルコムは、このテクノロジーを個別のアクセラレータ カードとして、または完全な水冷サーバー ラックとして提供します。

フルラック システムは 160 キロワットで動作しますが、これは消費電力に匹敵します。 競合他社の既存の GPU ラックも利用できますが、推論ワークロードの効率が向上することが約束されており、データセンターの運用予算に直接影響します。

混雑した分野への参入: クアルコム対タイタンズ

クラウド プロバイダーや大企業にとって、別の大手サプライヤーの登場は歓迎すべき価格競争とサプライ チェーンの安定をもたらす可能性があります。

長年にわたり、AI ハードウェア市場は Nvidia が圧倒的に支配しており、その強力な GPU と CUDA ソフトウェア エコシステムは業界標準となっています。その優位性が供給制約と高コストを生み出し、Or​​acle や OpenAI などの大手企業が AMD からの代替品を積極的に探し、さらにはカスタム シリコンを開発するようになりました。

クアルコムの参入により、この競争は激化します。クアルコム株の15%上昇を含む市場の熱狂的な反応は、同社が相当なシェアを獲得できる可能性があるという投資家の強い確信を示しています。

クアルコムはすでにサウジアラビアのヒューメイン社で重要な初期顧客を確保しており、同社は最大200メガワットの電力を使用するシステムの導入に取り組んでいます。

AI200は2026年に、AI250は2026年に発売されます。 2027年、 クアルコムは、競合他社と歩調を合わせるために、毎年のリリースペースに取り組んでいます。

同社は柔軟性も重視しており、顧客が自社のコンポーネントを独自のカスタム サーバー設計に統合できるようにしています。

「私たちがやろうとしたのは、顧客がすべてを受け入れるか、あるいは『組み合わせて使います』と言えるかのどちらかになるようにすることです」と Maladi 述べた。 AI の軍拡競争が激化し続ける中、クアルコムは差別化された戦略により、データセンターの将来をめぐる戦いにおいて手ごわい新たな競争相手となっています。

Categories: IT Info