1. トップ
  2. 新着ニュース
  3. IT
  4. パソコン

窓辺の小石 第171回 世界の中心でAIを叫んだだけのもの

マイナビニュース / 2024年6月21日 18時59分

画像提供:マイナビニュース

Copilot+ PCが発売されたらしい。Microsoftのページを見るに、これは、PC向けのブランドの1つだ。一定の仕様を満たしたPCにブランド名を付け、ユーザーの認知を簡単にするためのマーケッティング上の施策である。昔あったマルチメディアPC(CD-ROMドライブとサウンドカードを装着したPC)なんかと同じである。

Copilot+ PCは、Qualcomm社のSnapdragon Xプロセッサを使った、ARM64版Windowsを搭載したPCだ。これまでのARM64 PCとの最大の違いは40 TOPS(Tera Operation Per Second)のNPU(Neural Processing Unit)を搭載していることだ。Copilot+ PCのAI環境は、「Windows Copilot Runtime」(写真01。以下Copilot Runtimeと表記)と呼ばれている。

簡単にいうと、MicrosoftはCopilot Runtimeで、ローカル推論を普及させようとしている。その中心になるのがCopilotランタイム(前掲の図参照)であり、40 TOPSのNPUである。

いまAIと呼ばれているものの大部分は「ディープラーニング(深層学習)」と呼ばれるもの。ニューラルネットワークを「学習」させて構築する。学習ずみのニューラルネットワークを「モデル」といい、モデルを使って未知のデータの認識や予測、判断、理解を行わせることを「推論」という。

この推論をハードウェアで行うのがNPUである。推論計算は処理が一定なので、比較的ハードウェア化がしやすい。近年は、ニューラルネットワークを構成するパラメーターのビット数を圧縮して、SIMD演算での並列化率を上げ高速計算を可能にする手法が開発されていることもあって高い性能のNPUを低消費電力で動作させることが可能になった。

現在でも、文字認識や音声認識などの一部の処理は、PCだけでなくスマートフォンなどでもローカル推論が行われている。言語モデルや生成モデルのような複雑なモデルもローカル推論させることは可能だが、現在のCPUの計算能力ではリアルタイム性が低い、あるいは消費電力が大きくなってしまう。高性能なNPUを導入することで、これらを低消費電力でローカル実行することが可能になる。

ローカル推論は、先にスマートフォンなどで、俗に言うAIチップ(NPU)で実現されてきた。ただ、スマートフォンでは、メモリ量や計算性能など、推論に利用できる資源に制限があり、NPUが搭載されていても、ローカルでできることは限られていた。発表されたCopilot+PCでは16~32ギガバイトと大量のメモリを搭載している。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください