1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

WWDC 2024を前におさらい、いますぐ使える「アップルのAI」

マイナビニュース / 2024年6月10日 7時30分

少し変わったAIという意味では、Apple Vision Proに搭載されている「Persona」が挙げられるだろう。

これは、自分の顔をVision Proでキャプチャし、立体のアバターを作ってビデオ会議などで使うものだ。Vision Proをかぶった状態でビデオ会議をする場合、自分の顔をビデオカメラで撮っても、Vision Proで顔が隠れてしまう。そのため、自分の「仮想の顔」を作って仮想カメラからの映像として使い、ビデオ会議に流すわけだ。

映像を見るとそこまでリアルなCGではないのだが、首の動きや視線、表情などを認識し、かなり正確に反映されていて、意外と違和感がない。このモデルは、Vision Proのカメラと距離センサーのデータをAIが処理して生成する。

この種のアプローチはMetaも研究開発しているものだが、本格的な実装はアップルが先行した形である。
NPUでは先行するアップルだが……

Vision Proの例はクラウドを使っているが、その他のAI機能については、アップルが自社製品に採用しているSoC内の「AI用コア」、いわゆるNPUで処理されている。アップルはこのコアに「Neural Engine」(ニューラルエンジン)というブランド名をつけて展開している。

Neural Engineは2017年秋発売の「iPhone X」で採用されたSoCである「A11 Bionic」で初めて採用された。

指紋認証であるTouch IDに変わって登場した顔認証機能「Face ID」の処理などから活用が始まったが、当時は0.6TOPS(Tera-Operation Per Seconds)くらいしか性能がなく、本当にFace ID関連にしか使われていなかったようだ。

しかし、2023年発売の「iPhone 15 Pro」に使われているNeural Engineは35TOPSまで性能が上がった。先日発売されたばかりの「iPad Pro」に採用された「M4」は38TOPSまで性能アップしている。

A17 ProやM4のNeural Engineは、示されたスペックだけで比較すると、先日マイクロソフトなどが発表した「Copilot+ PC」での「40TOPS以上」という条件に近く、NPU搭載という意味では先行していた……ともいえる。

一方で、Neural Engineが全力で活用されているか、というとその点は若干あやしい。たとえば、Mac向けの「M3」は18TOPSとされており、iPhoneより下になっている。これはおそらくGPUを重視したためであろう。

逆に言えば、本気でSoC内でAI処理を増やしていくのはこれから、という予想も成り立つ。すなわち、最新のデバイスはこれから発表されるOSで大きく機能が変わる可能性も高いのだ。

大規模なAI学習という意味では、Windows PCにNVIDIAの高性能GPUを搭載した方が有利であることは間違いない。

ただ、アップルはOSに「Core ML」というフレームワークを持ち、AI関連アプリの開発がしやすくなっている。また特に「MacBook Pro」や「Mac Pro」に使われるプロセッサーは、GPUから64GB以上の大容量メモリーにアクセスしやすいという構造もあって、オンデバイスAI開発はしやすい。

こうした「AIを使う」部分が、今年のWWDCでどう変わってくるのか。そこが、Googleやマイクロソフトとの競合を考える上で重要になってくるだろう。

西田宗千佳 この著者の記事一覧はこちら
(西田宗千佳)



この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください