バーチャル・プロトタイピングによるAIアクセラレータの開発手法

マイナビニュース / 2018年6月14日 7時26分

写真

画像提供:マイナビニュース

日本シノプシスは6月13日、都内で開催した大規模ユーザー会「Synopsys Users Group(SNUG) Japan 2018」を開催。同イベントにて、バーチャル・プロトタイピングを使ったAIアクセラレータ設計とSoCへのインテグレーションについての説明を行った。

近年、ディープラーニングの活用に注目が集まり、GPUやFPGAを活用するアクセラレータのみならず、IT企業をはじめとしたさまざまな企業が、ニューラルネットワークのアルゴリズムを高速に実行するための専用プロセッサの開発など行うようになってきた。

こうした中、AI(人工知能)をとりまく状況としては、何を認識するのか(画像、音声、その他)、その対象に対して、どのようなニューラルネットワークが適切なのか(DNN、CNN、RNNなど)、またそうしたニューラルネットワークに対する柔軟性をどこまで持たせるのか、といったことを性能を発揮させるためには考える必要がでてきた。さらに、現在、AI分野は、次々とニューラルネットワークのアップデートや、新たなアルゴリズムなどが考案される状態となっており、そうした最新の情勢をどこまでキャッチアップして盛り込むか、といった部分もハードウェアを構築する上では考える必要があるという。

○ディープラーニングに対応可能なアーキテクチャ

ひとえにディープラーニングを処理するプロセッサといっても、さまざまなアーキテクチャが存在する。主なものとしては、「CPU」「GP-GPU」「Enhanced GPU」「FPGA」「Vector DSP」「ASIP(Application Specific Instruction-set Processor:特定用途向けプロセッサ)」といったところだが、問題は適用場所で、データセンターやクラウド上で用いられる「学習」であれば、32ビットの浮動小数点演算が処理できれば、リアルタイム性なども考慮する必要がないので、CPUであろうがGPUであろうが、GoogleのTPUのようなASIPであろうが、問題はない。一方、エッジデバイスで活用されることとなる「推論」では、演算性能と消費電力の両立が鍵であり、精度してはデータ精度を落としても、あまり影響しないということで、半精度浮動小数点演算(FP16)や8ビット整数のINT8での積和演算などが活用されるようになっていることから、用途に応じた正しいアーキテクチャを選択することが重要だとする。

  • 前のページ
    • 1
    • 2
  • 次のページ
マイナビニュース

トピックスRSS

ランキング