1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

AIプロセッサー「GAUDI 2」と「GRECO」が年内に登場予定 インテルCPUロードマップ

ASCII.jp / 2022年9月26日 12時0分

 今月、インテルはイスラエルでIntel Tech Tour.ilと題したTech Dayを開催した。なぜイスラエルか? というと、実は間もなく詳細が公開されるRaptor Lakeの設計と製造はイスラエルが主導しており、それもあってキーパーソンインタビューやDeep Diveなども開催されたのだが、このあたりの詳細はまた回を改めてお届けする。

 イスラエルと言えば、インテルが買収したMobileyeやHabana Labsなども全部イスラエルの企業であり、それもあって今回のTech DayではHabana Labsによる製品アップデートも説明があった。

 Habana Labsの話は連載575回で紹介したが、この時はGAUDIとGOYAという、同社にとって第1世代の製品の説明に留まった。ただ同社(というのか、同部門というのか)はこれに続いて第2世代製品をすでに出荷しているので、このあたりを中心に説明したい。

クライアント向けにVPUを導入

 Habana Labsの話を中心に、と書きながら最初はクライアント側の話である。インテルはIce Lake世代でGNAと呼ばれるAIアクセラレーターを導入したが、これは連載665回で説明したように、非常に限られた用途向けのもので、汎用というには性能的に不十分なものだった。その一方で、クライアントではさまざまなところでAIを利用しよう、という機運が急速に高まりつつあるとする。

AIをクライアントで利用していく。ただゲームとContents Creation(それこそAdobeのSensei)とProductivity(例えばMicrosoft OfficeのAIを利用したアシスタント機能)は、全部バラバラにAIフレームワークを実装して利用しているわけで、これらが統合されるまでには時間がかかりそうではある

 これに向けて、インテルとしてもクライアント向けに本腰を入れてAIを実装していこう、としている。具体的には、クライアントにもVPUを標準で導入する、というのが今回の大きな発表である。

クライアント向けにAIを実装するというのは、ソフトウェア側から見ての話である。それにしても、発表だけはしたもののまだ製品の出ていないIntel XMXやXeSSまでしれっと「実現したもの」リストに入れてあるのはどうだろう?

 VPUはVision Processing Unitの略で、インテルが買収したMovidiusのMyriadシリーズのアクセラレーターに採用されている名称だが、これを全面的にクライアントに導入することを正式に発表した。

クライアントにもVPUを標準で導入する。VPUは映像に特化しており、ISPなども内蔵して映像処理に非常に便利な作りではあるが、別にISPを通さなくても利用できるので、このあたりで手頃だったということだろう

 まずRaptor Lake世代が最初の導入プラットフォームになる。そしてMeteor LakeではこれがCPU側に統合されることが明確にされた。

Meteor Lakeでは“Processor Integration”とされるが、それが現状のMyriad Xベースのものなのか、これの後継製品ベースなのかはまだ未公開だ

 もともと今年2月に開催されたInvestor Meetingの際に、Raptor Lakeには“AI M.2 Module”なるものが追加されると明らかにされていた。

 連載657回でも「現時点で一番可能性が高いのはこのMyriad X VPUベースということになる」と書いたが、上の画像でMicrosoft(おそらくWindows MLのVPU対応をするのだろう)のほかにDell/HP/Lenovo/Acerのロゴがあるのは、この4社から投入されるRaptor Lakeベースのクライアント機には、Myriad X VPUを搭載したM.2 Moduleが搭載されると考えていいだろう。

 実際にさまざまなアプリケーションがVPU対応になるのはまだまだ先のことであろうが、AMDもZen 5世代でXNAという名称で旧XilinxのAI Engineを搭載することを発表しており、クライアントにAIアクセラレーターが標準搭載される日が近づいたことになる。もっともスマートフォン向けのSoCではもうNPU(Neural Processing Unit)を標準搭載するのが当たり前の昨今からすると、むしろ動きが遅いともいえるが。

GAUDI 2は管理維持の経費削減に効果大

 今年5月に行なわれたIntel Vision 2022で、インテルはGAUDI 2を初公開した。といっても詳細はあまり明らかになっておらず、唯一示されたのはNVIDIAのA100と比較して約2倍のスループットを実現できるということだけだった。

GAUDI 2のOAMを示すSandra L. Rivera氏(EVP&GM, Datacenter and AI Group)
比較はNVIDIAのA100なのだが、問題はすでにA100の3倍高速なH100が発表されていることである

 A100の2倍というのは新製品としては全然十分ではない(H100の3分の2の性能ということになる)わけだが、ここでHabana Labsはおもしろい見解を出してきた。

 昨今のデータセンターでは、ディープラーニングに要するコストがどんどん上がっているとする。理由はより複雑なモデルと繰り返し回数の増加、アプリケーション利用の広がりなどだ。

単に性能を上げるだけでは不十分で、例えば最後の“rebuild daily or hourly”(ネットワークの組み換えやアプリケーションの変更を毎日あるいは毎時行なう)が26%もあると、これに要する手間とコスト(特に人手)がバカにならない

 ところが、GAUDI 2はディープラーニングに要するコストの削減に大きな効果がある、というのがHabana Labsの主張である。要するに絶対性能だけでなく、TCOの削減に効果が大きいとしたわけだ。

動作周波数そのものは発表されていないが、同一周波数ではTPCの数が3倍+FP8のサポートで、ピーク性能は6倍くらいに引きあがっていそうである

 GAUDI 2そのものはプロセスの微細化と処理エンジン強化(3倍)、メモリーの容量増加と高速化、ネットワーク強化(100G×10→100G×24)と、猛烈に内部構造を強化したGAUDIといった形になっている。その内部構造が下の画像だ。

GAUDI 2の内部構造。Media Engineを利用することで、静止画や動画をCPUの介在なく直接取り込んで処理が可能になる(GAUDIではCPUで展開してビットマップの形で送り込んでやる必要があった)

 TPC(Tensor Processing Cores)が3倍に増やされた以外に、新たにMME(Matrix Multiplication Engine)が2つ追加されている。またHEVC/H.264/VP9/JPEGなどのデコードが可能なMedia Engineも新たに追加された。

 ちなみに図には出ていないが、初代GAUDIでは24MBの共有SRAMが搭載されており、これを利用して送受信やTPC間でのデータ共有などを行なっていたが、GAUDI 2ではこれも48MBに増やされている。

 GAUDI2が他のAIアクセラレーターと異なることの1つは、マルチチップ構成でのインターコネクトである。制御そのものはホスト(Ice Lake-SPサーバーをここでは念頭に置いている)からPCIeレーンでつながるが、カード同士は100GbEで接続する、という独特の構成である。

相互接続用の21本の100GbE上のプロトコルは未公開である。少なくともTCP/IPではないだろう

 なにせ1つのGAUDIから24本の100GbEが取り出せるので、そのうち3本はネットワーク接続用に回すとして、残り21本は丸々余っている。これを300GbE×7構成にして、GAUDI 2同士の相互接続に使う、という構成である。下手な独自インターコネクトを作るより、100GbEを流用した方が効率的と考えたのだろう。

 さてGAUDI 2の性能であるが、これはIntel Innovationで示されたものと大差ない。

Intel Innovationではスループット(Images/sec)で示されていたが、今回はTraining Timeそのものを示している

 今回新たに示されたのはスケーラビリティーで、複数枚のカード(初代GAUDIを含む)を利用したケースで、枚数に応じてリニアに性能が増えるとしている。

もっとも8枚くらいの範囲で言えばNVIDIAの製品もやはりリニアに増えるので、ここで大きな差はないのだが。初代GAUDIは128/256個までほぼリニアとあったが、GAUDI 2はどうなのだろう?

GAUDI 2は2022年第4四半期に出荷

 出荷に関しては、オンプレミス向けにはSuper Microが8枚のGAUDI 2を搭載したシステムが今年第4四半期に出荷するとしている。このシステム(の下半分)は会場でも展示された。

Super Microのシステム。かなり背が高いが、これは冷却のために必要な分を確保したからのようだ
シャーシの下半分。8枚のOAMの半分だけが装着されている
OAMのアップ。6つのHBM2スタックがよくわかる。右にあるのはLatticeのFPGAで、ファームウェア制御用だろうか?

 ところでHabana Labsの製品の場合、ソフトウェアはインテルのOneAPIやOpenVINOではなく、独自のSynapseAIを利用する。

将来的にはOneAPIなりOpenVINOと統合の方向なのかもしれないが、短期的にはまったく別である

 このSynapseAIを使う場合、例えばTensorFlowのモデルだったら冒頭に2行追加するだけでSynapseAIを利用してGAUDI 2を活用できるようになるという話であった。

要するにload_habana_moduleというモジュールを呼び出すだけである

第2世代GOYAはGRECOに名称変更

 トレーニング/推論向けのGAUDIがGAUDI 2になったので、推論専用のGOYAはGOYA 2になったか? と思ったら、なぜかGRECOになった。

名称を変更した理由は不明。ちなみにGRECOの製品ページはあるのに、なぜかProducts→Inferenceからリンクされていない

 GRECOもGAUDI 2同様に7nmプロセスに移行、オンチップメモリーの増量やLPDDR5の搭載、INT 4のサポートなど、さまざまな機能強化が施されているが、最大の特徴は200W→75Wに減った消費電力である。

 この結果として、2スロット/フルレングスだったGOYAのPCIeカードは、GRECOでは1スロット/ハーフレングスに小型化されている。

サイズ感的にはQualcommのCloud AI 100と似た感じに収まっている

 実際GOYAのカードの実物はかなりごっつく、強制空冷が必要な構成だったのに対し、GRECOはかなりシンプルな構造になっている。ちなみにGRECOは今年後半に発売予定となっている。

カード後端に強制空冷ファンを取り付けるという苦肉の策である。風量は確保できるかもしれないが、猛烈にうるさそうだ
LPDDR5×4のパターンが基板上に見える。後端に見えるのは補助電源コネクターというよりファン接続用コネクターに見える

 というわけで、2023年以降のインテルは、Intel ArcやCPU/VPUと、Habana LabsのGAUDI 2/GRECOの組み合わせでAIソリューションを提供していく、という方針が明確に示された説明会であった。

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください