Counterpoint Research の報告によると、半導体業界では AI 関連テクノロジーの需要が急増しています。この傾向は年間を通して続くと予想されており、セクターの成長を促進する上で AI の重要性が高まっていることが浮き彫りになっています。
AWS、Google、Meta、Microsoft などの主要なクラウド サービス プロバイダーは、AI インフラストラクチャの拡張を計画しています。 、設備投資総額は 2024 年に 1,700 億ドルに達すると予測されています。この投資の急増により、AI プロセッサの需要が高まり、生産能力に圧力がかかっています。特に TSMC では、。 CoWoS (Chip-on-Wafer-on-Substrate) は、ハイパフォーマンス コンピューティング (HPC) および AI プロセッサのパフォーマンスと効率を向上させるために設計された高度な半導体パッケージング テクノロジです。
<最新の AI および HPC プロセッサに必要なインターポーザー Nvidia と AMD が提供するということは、300 mm ウェハーごとに取得できるインターポーザーの数が少なくなり、CoWoS の生産能力に負担がかかることを意味します。さらに、GPU の周りに統合される HBM スタックの数が増加しており、生産上の課題がさらに増大しています。
HBM スタック (高帯域幅メモリ スタック) は、従来のメモリ ソリューションと比較して大幅に高い帯域幅を提供するように設計された高度なメモリ テクノロジの一種です。 HBM テクノロジーは、ハイ パフォーマンス コンピューティング (HPC)、人工知能 (AI)、グラフィックス プロセッシング ユニット (GPU)、およびその他のデータ集約型アプリケーションで使用されています。
インターポーザー領域が拡大するにつれて、要求を満たす容量が増加します。 GPU の需要が減少し、TSMC の CoWoS 生産能力の持続的な不足につながります。
AI が半導体の成長を促進
ファウンドリ企業は、2024 年第 1 四半期の収益が前年同期比 12% 増加したと報告しました。ただし、この成長は前四半期からの 5% 減少によって抑制されました。 Counterpoint Research は、このまちまちの業績は非 AI 半導体需要の回復が鈍く、スマートフォン、家庭用電化製品、IoT、自動車、産業用アプリケーションなどの分野に影響を与えているためであると考えています。
TSMC の戦略的調整
Strong>
TSMC は、今年の残りのロジック半導体業界の成長予測を 10% に調整しました。この保守的な見通しにもかかわらず、TSMC はデータセンター AI 製品、特に GPU からの収益が 2 倍以上になると予想しています。同社は高い需要に対処しており、チップ・オン・ウェーハ・オン・サブストレート (CoWoS) マルチチップ・パッケージング・プロセスの能力を 2 倍にする計画があっても、生産ニーズを満たすことは見込めません。
前年同期と比較して、TSMC の市場シェアは 61% から 62% に増加しました。 2 番目に大きい企業であるサムスンのシェアは 11% から 13% に上昇しました。 中国の半導体製造国際公司 (SMIC) も成長を遂げ、5% から 6% に上昇しました。 United Microelectronics Corporation (UMC) は安定した 6% のシェアを維持しましたが、GlobalFoundries のシェアは 7% から 5% に低下しました。
Samsung と SMIC: 業績と予測
Samsung のファウンドリ収益は第 1 四半期に減少しました。スマートフォンの販売に影響を与える季節的要因。それにもかかわらず、ギャラクシー S24 は、ミッドエンドおよびローエンドのデバイスの需要が依然として弱いにもかかわらず、好調に推移しました。グループレベルでは、サムスン電子は 2024 年第 1 四半期に前年同期比 68% の増加を報告しました。これは主に AI 需要に後押しされたメモリの売上によるものです。同社は第 2 四半期にファウンドリの収益が回復し、2 桁の成長が見込まれると予想しています。
SMIC は市場予想を上回り、初めてトップ ファウンドリの中で 3 位の座を確保しました。この成長は中国市場の回復によるもので、在庫補充の拡大により第2四半期も引き続き成長が期待されています。 Counterpoint は、SMIC が年間を通して 10 代半ばの成長を予測しています。
Nvidia の生産への影響
Nvidia の最新 Blackwell シリーズ プロセッサ (GB200、B100、B200)さらに多くの CoWoS 容量を消費することで、この問題が悪化すると予想されます。 TSMC は、2024 年末までに月産生産量を前年比大幅増の 40,000 ユニットに増やすことを目指しています。
より高速な HBM メモリを構築するにはより多くの EUV 層が必要となるため、HBM スタックの製造はますます複雑になっています。
大手 HBM メーカーである SK Hynix は、1α プロセス テクノロジに単一 EUV 層を使用しました。しかし、1β 製造プロセスでは 3 ~ 4 倍の層に移行しています。これにより、サイクル タイムは短縮される可能性がありますが、新しい HBM3E メモリのコストは明らかに増加します。
将来の見通しとイノベーション
HBM の新世代ごとに、メモリのメモリ容量が増加します。 DRAM デバイスの数。 HBM2 は 4 ~ 8 個の DRAM をスタックしますが、HBM3/3E ではこれが 8 個または 12 個のデバイスに増加し、HBM4 ではさらに 16 個に拡張され、HBM メモリ モジュールの複雑さが再び増加します。
これらの課題に対して、業界関係者は代替ソリューションを模索しています。たとえば、Intel は、従来の 300 mm ウェハー インターポーザーに代わる長方形のガラス基板を開発しています。ただし、このアプローチは、実行可能な代替手段となるまでに多大な研究、開発、時間を必要とし、AI プロセッサの生産に対する現在の需要の高まりに応えるための継続的な苦闘を浮き彫りにしています。