1. トップ
  2. 新着ニュース
  3. IT
  4. パソコン

ハイエンドスマホ向け新型SoC「Snapdragon 8 Elite」にみるAI半導体の進化

ITmedia PC USER / 2024年11月28日 19時40分

 今回、新たに登場したSnapdragon 8 Eliteでも、Hexagonの構造に少し手が入っている。ITmedia Mobileに掲載したレポートでも触れているが、今回のHexagonではScalar演算とVector演算を担うユニットが事実上2倍に増えた。Tensor演算ユニットは、大量の行列演算、AI推論的にいうと「畳み込み演算」を担い、Vector演算はトークン処理にまつわる演算に活用されている。

 現在の生成AIの基本的な理論「Transformer」では、「プロンプト」など入力された文書をいったん推論エンジンが理解できるトークンに変換(エンコード)した上で畳み込み演算を行い、結果を人間が解釈できる形に復元(デコード)して出力するというプロセスを取る。現状のLLMは、トークンが長大化してしまう傾向があるため、特にVector演算を強化することが、実効性能の向上に直結するというわけだ。

 先述の通り、CPU/SoCの開発では少なくとも5~7年程度先を見据える必要がある。5~7年先のユースケースをにらみつつ、CPU/SoCの“どこ”を“どのように”強化するのかという方向性を的確に探れるかどうかが、半導体メーカーの腕の見せ所となる。

●ターゲット市場に最適化されたハードウェアが重要

 半導体メーカーは、エンドユーザーに届く最終製品を作っているわけではない。そしてCPU/SoCの企画開発段階から搭載製品が届くまで、非常に長いリードタイムを要する。

 自らが市場をリードし、技術の方向性を決める立場にあるのならいいのだが、特にソフトウェアの世界において新しい技術的トレンドが突然出現し、その進化や変化が早い(激しい)となれば、先の需要を予測してCPU/SoCの機能強化をあらかじめ行うことは非常に困難だ。

 この問題について、Qualcomm Technologiesで主に製品のAIディレクションを担うベニシュ・スカマー氏(製品マネジメント担当シニアディレクター)は次のように説明している。

 QualcommのAIリサーチチームでは、「どのようなディープラーニング(深層学習)のアーキテクチャが今後登場するか」(の予測)に注力してきた。歴史的にいえば、まずは「RNN(Recurrent Neural Network)」であり、後に「CNN(Convolution Neural Network)」に移行し、2017年にGoogleが提唱した「Transformer」へとつながり、今日のLLMやその他全ての基礎の構築につながっている。そして今、人々はスタンフォード大学とカリフォルニア大学バークレー校によって2021年に発表された「MoE(Mixture of Experts)」「State Space Models(SSM)」といったものに取り組むようになった。 このような動きからいえることとして、まず(深層学習の)アーキテクチャに注目することが大切で、それを踏まえてQualcommのNPU(Hexagon)やAIスタックを含む各種ハードウェアで新アーキテクチャをサポートできるかを適時確認することが大切である。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください