1. トップ
  2. 新着ニュース
  3. IT
  4. パソコン

「Copilot+ PC」って何だ!? 「AI PC」は早くも第2世代へ

ITmedia PC USER / 2024年6月18日 6時0分

 残念ながら、現状ではNVIDIA GPUのハードウェアリソースをMicrosoftが提供するローカルAIアプリで利用することはできない。しかし、将来的にはNVIDIAのGPUもWindows Copilot Runtime利用できるようになるよう、MicrosoftとNVIDIAが開発を進めており、2024年後半にプレビュー版をリリースする予定だという。

 なお、NVIDIAはこうした処理ができるdGPU搭載PCを独自に「RTX AI PC」と定義し、アピールしていく構えだ。

●リアルタイムでパーソナルなAI活用が解禁 しかも使い放題

 ローカルでAIを処理するのか、ということについてもフォローしておきたい。

 「サーバ側でAIが使えるなら、それでいいんじゃない?」と思う人がいるかもしれない。しかし、ローカルでAI処理を行う理由としては、リアルタイム性(レスポンス)、パーソナル(プライバシー)、サーバリソース(コスト)、電力効率などが挙げられる。

 リアルタイム性については、Windows Studio Effectsによるカメラ効果が分かりやすい例だ。カメラの映像をいちいちサーバに送ってAI処理をしていては遅すぎるし、ネットワークのトラフィックも膨大になってしまう。こうしたリアルタイムのAI活用はローカルAIでしかできない。

 また、個人情報などパーソナルなデータをサーバに送信しなくて良いというのもローカルAIのアドバンテージだ。リコールのような機能も(それでもセキュリティの課題はあるとはいえ)ローカルAIだからこそできることだ。

 サーバ側の負荷の問題もある。AIサーバの運用には膨大なコストがかかり、アクセスが集中すれば遅延やサービス停止のリスクもある。Dall-E 3による画像生成も1日に利用できる回数が制限されているように、回数制限や利用料金を課しているサービスは多い。その点、ローカルAIであれば、サーバの負荷は気にする必要がない。OSに統合されたMicrosoftのアプリであれば、無料で使い放題だ。

 サーバとの通信が不要な点は、電力効率についてもメリットがあるだろう。前述したように、AI推論用に特化したNPUのメリットと合わせれば、AIを活用する前提での電力効率のアドバンテージはかなりのものになると思われる。

●ついに登場したCopilot+ PC!

 6月18日から販売が開始されるCopilot+ PCの第1弾は、全てQualcommのSnapdragon Xシリーズを搭載している。Snapdragon Xは、Arm64アーキテクチャのCPUコアを搭載したSoC(System On Chip)であるので、少々注意も必要だ。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください