1. トップ
  2. 新着ニュース
  3. 経済
  4. プレスリリース

SUPERMICRO(スーパーマイクロ)、NVIDIA Blackwell および NVIDIA HGX H100/H200 搭載のラックスケール・プラグ・アンド・プレイ液冷AI SuperCluster を発表

共同通信PRワイヤー / 2024年6月6日 13時21分


さまざまな業界の企業が、生成AIのユースケースを急速に実験している中、SupermicroはNVIDIAと緊密に連携し、AIアプリケーションの実験やパイロットから本番環境への展開、および、大規模データセンターAIへのシームレスで柔軟な移行を可能にします。この結果は、NVIDIA AI Enterprise ソフトウェアプラットフォームを使用したラックおよびクラスターレベルの最適化を通じて実現され、初期の調査からスケーラブルな AI実装までのスムーズな移行を可能にします。


マネージドサービスでは、インフラストラクチャの選択、データ共有、生成AI戦略のコントロールにおいて妥協を強いることがあります。しかし、NVIDIA AI Enterprise プラットフォームの一部である NVIDIA NIM マイクロサービスは、マネージド生成AIと、オープンソース展開の両方のメリットを享受できます。その多用途な推論ランタイムは、オープンソースからNVIDIAの基盤モデルに至るまで、幅広いモデルの生成AIの展開を加速します。さらに、NVIDIA NeMoTM は、データキュレーション、高度なカスタマイズ、エンタープライズ対応ソリューションのための検索拡張生成(RAG: Retrieval-Augmented Generation)を活用してカスタム モデル開発を可能にします。Supermicro のNVIDIA AI Enterprise Ready SuperClusterと組み合わせることで、NVIDIA NIM はスケーラブルで加速された生成AIの生産展開への最速の道を提供します。


Supermicroの生成AI対応SuperClusterの現行製品には以下が含まれます。


液冷(水冷)式 Supermicro NVIDIA HGX H100/H200 SuperCluster: 5ラック(専用ネットワークラックひとつを含む)に256基の H100/H200 GPUを搭載する、スケーラブルなコンピューティングユニット。

空冷式Supermicro NVIDIA HGX H100/H200 SuperCluster: 9ラック(専用ネットワークラックひとつを含む)に256基の HGX H100/H200 GPUを搭載する、スケーラブルなコンピューティングユニット。

Supermicro NVIDIA MGX GH200 SuperCluster: 9ラック(専用ネットワークラックひとつを含む)に、256基の GH200 GraceTM Hopper Superchip を搭載する、スケーラブルなコンピューティングユニット

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください