1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

AMD、CDNA 3ベースのAIアクセラレータ「Instinct MI325X」を発表

マイナビニュース / 2024年10月15日 22時4分

画像提供:マイナビニュース

AMDは10月10日(米国時間)、次世代AIインフラの大規模展開への対応に向けて、AMD CDNA 3アーキテクチャベースのアクセラレータ「AI Instinct MI325X」を発表した。

同アクセラレータは、256GBのHBM3Eメモリにより6.0TB/sの帯域幅を提供することで、NVIDIA H200と比べて容量が1.8倍、帯域幅が1.3倍に向上。これにより、Mistral 7BのFP16推論性能が最大1.3倍、 Llama 3.1 70BのFP8推論性能が最大1.2 倍、 Mixtral 8x7BのFP16推論性能が最大1.4倍向上するという。

2024年第4四半期より出荷される予定で、2025年第1四半期からDell Technologies、Eviden、Gigabyte、Hewlett Packard Enterprise、Lenovo、Supermicroなどのプラットフォームプロバイダからシステムが提供される予定だという。

また、同社は次世代アクセラレータとして、AMD CDNA 4アーキテクチャベースの「AMD Instinct MI350シリーズ」も発表しており、アクセラレータごとに最大288GBのHBM3Eメモリを搭載し、CDNA 3ベースのアクセラレータと比較して推論性能が35倍向上するように設計されているという。こちらは、2025年下半期の発売が予定されているという。

次世代AIネットワークに向けた2製品も発表

同社はAIインフラにおけるCPUやアクセラレータの効率的な活用に向けたAIネットワーキングを実現することを目指し、フロントエンド向け「AMD Pensando Salina DPU」、バックエンド向けにUltra Ethernet Consortium(UEC)対応AI NIC「AMD Pensando Pollara 400 NIC」も発表している。

AMD Pensando Salina DPUは、同社の第3世代DPUという位置づけで、400Gのスループットをサポートし、前世代比でパフォーマンス、帯域幅、スケールが最大2倍向上したという。一方のAMD Pensando Pollara 400は、AMD P4プログラム可能エンジンを搭載したUEC対応AI NICで、次世代RDMAソフトウェアをサポートしているという。

いずれも2024年第4四半期に同社顧客での試用が開始され、2025年上半期より利用可能になる予定だという。
(小林行雄)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください