1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

NVIDIAのBlackwell需要がTSMCのCoWoS生産能力増強の後押しに、TrendForce予測

マイナビニュース / 2024年4月19日 14時32分

画像提供:マイナビニュース

半導体市場調査会社である台TrendForceは、NVIDIAとAMDのAI半導体の開発計画ならびにそれらに搭載されるHBMの仕様調査を行ったことを発表した。

それによると、NVIDIAの次世代プラットフォーム「Blackwell」を採用したBシリーズGPUを含むGB200などのモデル、中でもGB200は需要の高さもあり、その出荷台数は2025年までに数百万ユニットを超え、NVIDIAのハイエンドGPU分野の40~50%近くを占める可能性があるとTrendForceは予測している。

NVIDIAのGB200やB100など、2024年後半に発売される予定の各製品は従来よりも複雑かつ高精度なTSMCの「CoWoS-L」を採用するが、その検証とテストに時間がかかるほか、通信や冷却性能などの側面でAIサーバシステムに最適化させるための時間が必要になることから、2024年第4四半期または2025年第1四半期まで生産数は限定的となることが予想されるという。

一方で複数ラインナップが展開されることで、CoWoSの需要が増加することが見込まれることから、TSMCは2024年末までにCoWoSの推定月間生産能力を前年比150%増の4万近くまで引き上げるが、そのうちの半分以上をNVIDIA向けとなるとみられるという。

また、Amkorなどのパートナーは現在、主にNVIDIAのHシリーズ向けにCoWoS-Sテクノロジーを手掛けていることから、技術的なブレークスルーは短期的には困難であり、そうしたOSATがクラウドサービスプロバイダ(CSP)による自社開発ASICを中心とした、NVIDIA以外の追加注文を確保でもしない限り、拡張計画は保守的なものとなる可能性があるともしている。

2024年後半にはHBM3eが主流に

2024年のNVIDIAとAMDの主要GPU製品に搭載されるHBMの方向性としては、2024年後半にNVIDIAはH100に代わってHBM3eを搭載したH200の出荷を拡大させる予定で、それ以降のGB200やB100などでもHBM3eが採用される模様である。一方のAMDも2024年末までに新製品MI350を発売する予定だが、それまでにH200と競合するMI32xといった暫定モデルを投入する可能性もあり、いずれもHBM3eを採用することとなる。

また、AIサーバの全体的な計算効率とシステム帯域幅の向上に向けてHBMの容量増加が続くことも予想されている。現在、市場では主に80GBのHBMを搭載したH100が使用されているが、2024年末までに192GBから288GBまで増加することが予想されるほか、MI300Aも最大288GBにまで増加されることが予想されるという。

このほか、HBM3eを搭載したGPUのラインナップでは8Hi(メモリ積層数が8層)構成から12Hi(メモリ積層数が12層)構成へと進化することで、容量の増加が図られることが見込まれている。NVIDIAのB100およびGB200は現在、192GBの8Hi HBM3eを搭載するとしているが、B200では12Hi HBM3eを搭載することで288GBまで引き上げられることとなる予定。一方のAMDのMI350と、2025年に発売される予定のMI375シリーズも12Hi HBM3eを採用することで、メモリ容量288GBを実現することが予想されるとしている。
(服部毅)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください