1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

2024年のAIサーバ市場は1870億ドルでサーバ市場全体の65%を占める規模に、TrendForce予測

マイナビニュース / 2024年8月5日 11時48分

画像提供:マイナビニュース

TrendForceによると、2024年のAIサーバ市場は、クラウドサービスプロバイダ(CSP)などからの需要が高止まりにより、前年比69%増の1870億ドルと伸長。全サーバに対する割合も65%となると予測されるという。

生成AIを中心とする世界的なAI活用ニーズに対し、半導体各社も積極的に動いており、特に大手DRAMメーカー3社の段階的な増産により、2024年第2四半期にはAI半導体ソリューションの不足が緩和されることとなり、NVIDIAのH100ソリューションのリードタイムはこれまでの40~50週から、16週未満まで短縮されているという。こうしたAI半導体の供給不足の緩和もあり、TrendForceでは、同第2四半期のAIサーバ出荷台数は前四半期比で約20%増と予測。年間出荷台数についても、前年比41.5%増の167万台に上方修正している。

一方の一般的なサーバの成長は鈍化する見通しで、一般サーバの年間出荷台数は同1.9%増に留まるとしており、全サーバ出荷台数に占めるAIサーバの割合は前年から役3.4ポイント増の12.2%となるとも予測している。

また、北米のCSPや中国企業を中心に独自のASICの採用を拡大させており、2024年のAIサーバ市場全体に対するASICサーバの割合は26%まで拡大(GPU AIサーバは約71%)されると予想している。

AIサーバ向けAI半導体サプライヤとしては、NVIDIAが90%近いシェアを獲得。競合のAMDは8%ほどだが、AIサーバで使用されるすべてのAI半導体(GPU、ASIC、FPGA)で見ると、2024年のNVIDIAのシェアは約64%ほどとなるという。

なお、TrendForceによると、高度なAIサーバの需要は2025年まで堅調に推移することが予測され、中でもNVIDIAの次世代製品「Blackwellシリーズ(GB200、B100/B200を含む)」が現行のHopperプラットフォームに取って代わるとみており、CoWoSならびにHBMの需要も高まるとしている。例えばNVIDIAのB100の場合、チップサイズはH100の2倍になり、より多くのCoWoSを活用することが予想される。主要製造元であるTSMCのCoWoSに対する生産能力は、2025年末までに55万~60万ユニットに達すると予測されており、成長率は前年比80%増程度としている。

また、NVIDIAのBlackwell UltraやAMDのMI350などの先端AI半導体には数量ベースで従来の3倍の使用量となる最大288GBのHBM3eが搭載されることが予想されるなど、HBMに対する需要が急激に高まっていくため、HBMの全体的な供給能力は2025年までに2倍に高まることが期待されるともしている。
(服部毅)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください