1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

「Google Cloud Next '24」が開幕 - 各種サービスを発表

マイナビニュース / 2024年4月11日 12時36分

画像提供:マイナビニュース

Google Cloudは4月10日、年次カンファレンス「Google Cloud Next '24」を開催し、インフラストラクチャやAI統合基盤「Vertex AI」関連のサービスなど、多くのサービスを発表した。
○AI向けのインフラを拡充

まずはインフラストラクチャ。「A3 Mega」はNVIDIAの「H100 Tensor Core GPU」を使用して開発した新たなGPUベースのインスタンスを2024年5月より一般提供を開始。A3インスタンスと比較して、GPUあたりの帯域幅が2倍になり、要求の厳しいワークロードもサポートするほか、トレーニングおよび推論中に機密データとAIワークロードの機密性と整合性を適切に保護する「Confidential A3」も発表。

また、NVIDIA Blackwellプラットフォーム「NVIDIA HGX B200」「NVIDIA GB200 NVL72」の2つのバージョンが2025年初頭にGoogle Cloudに導入を予定し、HGX B200は要求が厳しいAI、データアナリティクス、HPC ワークロード向けに設計されており、GB200 NVL72はリアルタイムの大規模言語モデル推論と、数兆パラメータ規模のモデルの大規模トレーニングパフォーマンスを強化するという。

「TPU v5p」は、前世代のTPU(Tensor Processing Unit)と比べて、ポッドあたりの計算能力が4倍に強化し、トレーニングと推論において、スケーラブルかつ柔軟なAIアクセレレーターの一般提供を発表。Google Kubernetes Engine(GKE)でTPU v5pがサポートされる。

「Google Axion」はデータセンター向けに設計された同社初のカスタムArmベースCPUとなり、同等の現行世代のx86ベースインスタンスより50%優れたパフォーマンスと最大60%優れたエネルギー効率を実現するという。

さらに、ストレージの「Cloud Storage FUSE」と「Parallelstore」の新しいキャッシュ機能により、データをTPU・GPU に近づけ、トレーニング速度を高速化するという。次世代ブロックストレージサービス「Hyperdisk ML」(プレビュー版)も発表している。

Dynamic Workload Schedulerの新しいオプションとして、開始時刻を保証するカレンダーモードと経済性を最適化するフレックススタートにより、複雑なトレーニングと推論ジョブを分散するための効率的なリソース管理を確保できるという。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください