1. トップ
  2. 新着ニュース
  3. IT
  4. モバイル・アプリ

AppleのAI戦略発表はなぜ他社より大幅に遅れたのか 「Apple Intelligence」の真価を読み解く

ITmedia Mobile / 2024年7月19日 11時27分

 1時間を超えるビデオのうち、冒頭の20分を費やしているのが、Apple Intelligenceについて。

 メインのプレゼンテーションはIntelligent System Experience Engineering担当VPのセバスチャン・マリノー=メス氏が行っている。彼の最初の説明がApple Intelligenceを端的に説明している。

 「Apple IntelligenceはPersonal Intelligence Systemで、強力な生成モデルをプラットフォームにもたらす。これによってiOS、iPadOS、macOSは強力な新機能を得ることができ、言語や画像を理解し生成できる。ユーザーのコンテキストを深く理解した上でその行動を手助けするというものだ」

 これだけだと「ああ、そうですね。そうなりますよね」というくらいだが、これを実現するためにどのようにしたか、というのが重要になる。

 Appleが最初に下した決断は、「オンデバイスで行く」というもの。つまり、iPhone、iPad、Macのデバイス上でLLMを動かす。クラウドに投げて結果をデバイスで表示するようなことは基本しない、ということだ。Apple SiliconにはNeural Engineを古くから積んでおり、その上で動く機械学習モデルはさまざまな用途で使われてきたから不思議なことではない。

 しかし、大規模言語モデルというからには、LLMはサイズも実行環境も重い。いくら高性能でUnified Memoryにより比較的潤沢で高速なメモリを持つとはいえ、通常のLLMを載せるのは不可能だ。

 一方で、こうしたオンデバイス向けのLLM、SLM(小規模言語モデル)も開発が進んでいる。2024年4月23日にはMicrosoftがPhi-3を公開した。3.8Bからスタートする小規模だが効率的なモデルだ。その翌日にはAppleがOpenELMという小規模なLLMを公開。こちらは270M、450M、1.1B、3Bとさらにフットプリントが小さいもの。

 GoogleのLLMであるGeminiにもオンデバイス向けのモデル「Gemini Nano」があり、PixelやChromebook、そしてChromeブラウザにも組み込まれる予定。Chromeへの組み込みは既にスタートしており、Canaryで利用可能です。サイズは4bit 3.25Bといわれている。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください