Infoseek 楽天

なぜ“まだ使えない”Apple Intelligenceを推すのか? 新製品から見えるAppleの狙い

ITmedia PC USER 2024年9月11日 17時45分

 Appleは9月9日(米国太平洋夏時間)、iPhoneとその周辺デバイスを主役としたスペシャルイベントを開催した。このイベントは例年開催されており、発表された新製品は順次各国での予約販売が開始され、1~2週間以内に出荷される流れだ。しかし今年(2024年)は、少しばかり異なる点もある。

 このイベントにおける一番の“主役”はiPhoneだが、今回はその目玉であるオリジナルAI機能「Apple Intelligence」が出荷開始時に利用できず、翌月の10月から順次対応という状況なのだ。しかも10月時点では正式な機能ではなく、開発途上の“β版”として米国英語のみ対応するという。米国以外の英語圏は12月からと比較的早く利用できる見込みだが、英語以外の言語(日本語/中国語/フランス語/スペイン語)は「2025年」と対応予定時期が曖昧となっている。

 後述するように、Apple IntelligenceはAppleらしくプライバシーを重視しながらも、iPhoneに集まるパーソナルな情報を活用するユニークかつ有用性の高い機能だ。今回のベントでもiPhone 16/iPhone 16 Proは「Apple Intelligenceを中心に設計された」と強調していた。旧機種で対応するのは2023年発売の「iPhone 15 Pro」「iPhone 15 Pro Max」のみとなるため、Apple IntelligenceはiPhoneを買い換えるモチベーションの1つとなりうる。ただ、日本のユーザーが母国語でその実力を体感できるのは少々先のことになる。

 iPhoneを買い換える上で、Apple Intelligenceは重視すべき要素なのか――前置きが長くなったが、まずはこの点を検討してみたい。

●Apple Intelligenceは「iPhoneを買う」理由になるのか?

 生成AIを活用したエージェントサービスとしてのApple Intelligenceは、明らかに「独自性の高さ」と「ライバルへの優位性」を有している。

 スマートフォンに集まる情報を横断的に参照しながらAIサービスを提供するには、端末内にAI言語モデルを置かねばならない。MicrosoftやGoogleも、そのことを理解した上でスマホで稼働できる小規模言語モデルの開発を進め、端末に内蔵させようとしている。

 それに対して、Appleはプライベート情報をパブリックなクラウドにアップロードしないように配慮しつつ、端末内処理の延長としてクラウドのパワーを活用し、より長い文脈のAIサービスを実現しようとしている。さらにデータセンターのサーバも含め、電力効率の高いシステムとし、追加料金を発生させることなく自社端末ユーザーにサービスを提供するという。同社はこれを「Private Cloud Compute」技術と呼んでいる。

 この技術を使うことで、ユーザーのデータは「匿名化」と「非保存処理」が施される。そして電力効率を重視する観点から、カーボンニュートラルを実現したデータセンターの構築を行うという。

 プライバシーを守りつつ、環境に配慮した考慮したサービスを実現する――この点において、ライバルに対するリードは大きいのではないだろうか。

 そしてApple Intelligenceが実現する機能は、スマホを持っていることのメリットをさらに伸ばしうる。

 スマホには、クラウドを軸にしてプライベート、ビジネス、公共サービスなど、あらゆる情報が集まってくる。生活のインフラとして欠かせないデバイスであることは、もはや言うまでもない。そこに集まる情報をAIの学習データ、あるいはコンテンツの生成時に参照するデータとして使えれば、ユーザーにとって極めて有益な“情報源”となる。これはクラウド上で提供するAIでは実現できないことだ。

 例えば「Gmail(Googleのメール)」を使っているユーザーは多くても、「Google チャット」を使っているユーザーはそれほど多くないはずだ。日本であれば、Google チャットの変わりに「LINE」や「Facebook Messenger」を使っている人の方が多いだろう。やり取りする相手によっては「+メッセージ」を始めとする通信キャリアのメッセージサービスを使うこともあるだろうし、仕事のやりとりなら「Slack」や「Microsoft Teams」なんかを使うこともあるだろう。最近なら「Discord」を仕事に使う、なんていう話もよくある。

 そして、これらのコミュニケーションサービスが“閉じている”とも限らない。むしろ、複数のサービスにまたがっている場合の方が多いのではないだろうか。

 スマホに集まってくる多様なデータを人間(ユーザー)が全て把握し、その文脈を全て追い切るのは極めて難しい。一方でAIなら、そうした雑多なデータを一括して情報として参照しつつ、意味の通る情報に組み立て直すこともできる。

 これをクラウドで実施する場合、異なるサービス間での情報の追跡や、一貫性を保つことが極めて難しい。しかし、iPhoneという“システム”に集まってくる情報を何らかの形で標準化した上でAIで扱い、異なるアプリ間のデータを相互に集めて整理することは可能だ。

 Apple Intelligenceが行おうとしているのは、まさにそうした人間では把握しきれないほどの情報を整理し、ユーザーにサジェスチョンすることだ。こればかりは、手元の端末が中心でなければ提供できない。

 さらにいえば、手元のスマホに集まってくる情報が学習され、その文脈が把握されている状況において、他のプラットフォームに乗り換えるというのも利便性を考えると、あまり現実的とは思えない。つまり、Apple IntelligenceはiPhone(端末)とユーザーのエンゲージメントを極めて強固なものにする、ある意味で新たな“囲い込み策”と見ることもできる。

 ここまでiPhoneの話ばかりしてきたが、Apple IntelligenceはiOS(iPhone)だけのものではない。iPadOS、macOS、将来的にはvisionOSでも利用できるようになる。Appleのデバイスに保存されたプライベートな情報を活用し、より便利になるとしたら、なおさらにAppleを中心としたエコシステムから逃れることが難しくなる。

 そう考えると、Appleが今回の発表で「新しいiPhoneはApple Intelligenceに最適化されている」と強調した理由が見えてくる。Apple Intelligenceの普及は、Appleという企業の今後における“生命線”となり得るのだ。

 多くのユーザーは、AIサービスを提供するタイミングという点において「Appleは周回遅れ」と考えているかもしれない。先述の通り、10月の米国提供の段階でもまだ“β版”だし、日本語を含む英語以外の言語への対応も2025年からと若干曖昧なアナウンスとなっている。言い方を選ばなければ、「ずいぶんのんびりしすぎてないない?」と思っている人もいるだろう。

 しかし、やろうしていることを見てみると、競合するサービスは現時点で見当たらない。実際に新しいiPhoneを購入するかどうかは、Apple Intelligenceから切り離して考えれば良いとは思う。ただ、この機能がAppleの戦略上、極めて重要であることは今回のスペシャルイベントからも明確に読みとることができる。

●一気に“2世代”進化した「iPhone 16」

 ここからは発表された新製品を見ていこう。幾つかある新製品のうち、最も大きなアップデートは「iPhone 16」「iPhone 16 Plus」(以下まとめて「iPhone 16」)と、後述する「Apple Watch Series 10」だ。

 Proを冠していない「iPhone 15」「iPhone 15 Plus」と比較すると、iPhone 16はSoC(System on a Chip)が一気に2世代分進化した。ボディーの素材、5倍望遠カメラの非搭載、動画撮影における「ProMotion」対応といった細かい部分を除けば、2023年の「iPhone 15 Pro」「iPhone 15 Pro Max」とほぼ同等か、部分的には超える体験をもたらしてくれる。

 iPhone 16は最大2000ニトの明るいディスプレイも魅力だろうが、アウトカメラに約4800万画素の「Fusionカメラ」が搭載されたことも注目ポイントだ。このカメラはiPhone 15 Proに採用されたセンサーのアップデート版となる。

 約1200万画素の新型超広角カメラも、従来は対応していなかったオートフォーカス(AF)に対応し、マクロ撮影も可能となった。望遠カメラを備えないiPhone 15 Proを超えるものだ。

 カメラにおける体感的な違いとしては、新搭載された「カメラコントロール」に注目したい。

 カメラコントロールは圧力センサーとタッチセンサーを組み合わせたデバイスで、クリック/長押し/スライドといった直感的な操作で、ズームや露出、被写界深度などの調整を可能にする。メカニカルな“スイッチ”ではないため、長期使用での故障の危険も少ないと思われる。

 当初はカメラ操作を使いやすくすることに使われるカメラコントロールだが、ソフトウェアの作り方によって、さまざまな機能を追加可能だ。2024年内には「ビジュアルインテリジェンス」機能が追加される。これは「Google レンズ」のように、カメラで捉えた対象を認識し、関連情報の表示する機能だという。認識処理にはクラウドを使わず、端末内で完結するとのことだ。

 「フォトグラフスタイル」にも改善が加えられている。これまでは“雰囲気を選ぶ”だけだったのだが、iPhone 16では色調やハイライト、シャドウをシンプルなタッチ操作でリアルタイムで調整できるようになった。スキントーンやさまざまな被写体のテクスチャーを、より自然で個性的な仕上がりにできる。

 フォトグラフスタイルは表示時にリアルタイム適用されるため、撮影後はもちろん、後から編集することもできる。オリジナルの写真は別途保存されているので、いつでも元の状態に戻すこともできる柔軟性もある。

 ビデオ撮影ではカメラ位置が縦に並んだことで空間ビデオ撮影が可能になった。機械学習を用いた「風切り音低減機能」も搭載されたので、屋外での撮影がより高品位になるだろう。

 iPhone 16のカメラは「完全に新しく進化した」というよりも「新しいSoCとソフトウェアの力で、iPhone 15 Proのメインカメラをリファインした」と考える方が的確だ。

 iPhone 16の“心臓部”である「Apple A18チップ」は、「iPhone 15」「iPhone 15 Plus」で採用されていた「Apple A16 Bionicチップ」からは2世代の進化となる。今考えると、iPhone 15に(順当な)A17チップを搭載しなかったのは「Apple Intelligenceに非対応にするためではないか?」と邪推したくなる。

 このA18チップは“Pro”ではないものの、Neural Engine(NPU/推論プロセッサ)自体はA18 Proチップと同じものを採用しているのでApple Intelligenceが動作する。A16 Bionicチップと比べると、CPUコア(Pコア2基+Eコア4基)は最大30%高速ながらも消費電力は最大30%削減されている。GPUコア(5基)も最大40%高速化されているが、多くのユーザーは最大35%の電力効率向上の方がうれしいかもしれない。

 iPhone 16では、前世代ではPro限定だった「アクションボタン」も搭載され、バッテリー持ちの改善、最大25Wの高速ワイヤレス充電、衛星経由のメッセージング機能(米国とカナダでのみ利用可能)が実装された。米国では緊急SOSのライブビデオ機能も導入された。Wi-Fi 7(IEEE 802.11be)への対応も行われている。

 望遠カメラにこだわりがないならば、今年のiPhone 16はかなりお買い得な選択肢だと思う。

●“クリエイター向け”をより色濃くした「iPhone 16 Pro」

 Proではないモデルの高性能化が進むにつれて、ここ数年のiPhoneのProモデルは最先端技術を搭載した“先鋭的”なモデルになる傾向にある。今回登場した「iPhone 16 Pro」「iPhone 16 Pro Max」(特記がない限り、以下まとめて「iPhone 16 Pro」)では、この傾向が一層強まっている。

 iPhone 16が持つ特徴は全て備えた上で、より高性能なSoCと5倍望遠カメラの搭載、そしてこれらを活用したソフトウェア機能によって、さらにプレミアムなモデルとしての体裁を整えている。

 iPhone 16 Proに搭載される「Apple A18 Proチップ」は、基本的により高速に動作するA18チップに、特別な機能を幾つか追加したものだと考えればいい。

 まずNeural Engineだが、16コア構成であることはA18チップと同様だが、ピーク時の処理性能がより高められている。iPhone 15 Proに搭載されている「Apple A17 Proチップ」と比べると、ピーク時のパフォーマンスは最大15%高速になっているという。

 CPUコアはA18チップと同じPコア2基+Eコア4基構成だ。A18チップとの比較は特になされていないが、A17 Proチップ比で最大15%高速化し、最大20%の省電力化を果たしている。GPUコアはA18チップよりも1基多い6基構成で、A17 ProチップのGPUコアと比べると最大20%の性能向上を果たしたという。ハードウェアベースのレイトレーシング性能も、最大2倍になったとのことだ。

 カメラシステムは基本的にiPhone 16と共通だが、5倍望遠カメラがあることが大きな違いだ。今回はMaxではないモデルも5倍望遠カメラを備えているので、カメラ面でMaxモデルと非Maxモデルの差分はない。純粋に画面や本体のサイズの好みで選べるようになった。

 高速読み出し可能なセンサーの採用により、ビデオ撮影では4K/120fpsのProRes録画が可能となり、高精細かつ高画質のスローモーション撮影も実現した。その他、プロフェッショナルな撮影に対応できる機能も幾つか追加されている。その一例が「Academy Color Encoding System(ACES)」への対応だ。

 ACESは、映画やTV番組の制作における色管理に関する国際標準規格となる。これに対応することで、映像制作ワークフローにおける高品質かつ一貫性のある色再現を実現できる。

 iPhone 15 Proに搭載された「Log撮影」もそうだったが、今回ACESに対応することで「映像制作ツール」としての先鋭化が一層進んでいる印象だ。クリエイター予備軍の若年層が”本物の技術”をそのままズバリでなくとも、近い体験として得られるのは悪くない話だ。

 本体には4つのスタジオ品質の低ノイズマイクも内蔵され、それらの差分演算により空間オーディオ録音にも対応するという。こちらも、再現性を実機で試すのが楽しみな部分だ。

 ディスプレイはiPhone 16 Proが6.3型、iPhone 16 Pro Maxが6.9型と少し大きくなっている。額縁を細くすることで本体の大型化を抑えている。「ProMotionテクノロジー」による最大120Hzの可変リフレッシュレートや、常時表示(Always-On Display)機能は引き続き採用されている。

 また細かな点だが、Face IDが従来よりも斜めの角度から認証可能になったという。そして、緊急SOS機能における衛星経由での通信の安定性の向上の他、システム全体の省電力化(iPhone 16 Pro Maxでは最大29時間のビデオ再生が可能)など、基礎体力の強化が図られた。

●誕生10周年の「Apple Watch」は久々のメジャーアップデートに

 誕生10周年を迎えた「Apple Watch」には、久々にメジャーアップデートが施された。筆者は初代モデルから取材を続けてきたが、記憶の限り「Apple Watch Series 4」以来約6年ぶりの大幅刷新となる。

 「Apple Watch Series 10」は、ボディーが従来比で10%の薄型化と軽量化を果たした。このことで、Series 9まで共用できた時計全体を覆うストラップやケースなどは利用できなくなる。その代わり、装着した際の心地は大幅に良くなったようだ。

 しかし本機は、単に薄く軽くなっただけではない。ディスプレイサイズは先代比で最大30%拡大された。従来通り「42mm」と「46mm」の2サイズで展開されるが、大きい方(46mm)は、わずかながらApple Watch Ultraよりも大きな画面を備えている。

 ディスプレイの視認性も向上し、角度をつけて見た場合にSeries 9よりも最大40%明るく見える広視野角OLED(有機EL)を採用している。この新しいOLEDは、省電力になったことで常時点灯モード時でも毎秒1回の更新が可能となり、スリープ時でも秒針の表示が可能になった。

 薄型化に寄与しているのは、新しい金属製の裏ぶただ。この裏ぶたにはアンテナが統合されており、従来は2つのレイヤーで実現していた部分をまとめたことで薄くなったという。

 同時に裏ぶた自体も強化され、50mの防水性能は維持しつつ、大きく効率的な充電コイルを搭載することで、充電速度も向上しているという。

 Series 10では、新たに「深度計」と「水温センサー」が搭載され、最大6mまでの水深と水温を測定できるようになった。これにより、スイミングやシュノーケリングなどの水中アクティビティーをより詳細に記録できるようになった。ダイビングともなると引き続きApple Watch Ultraが必要だが、ほとんどの用途には通常モデルで対応可能になる。

 健康機能の面では、2024年内に予定しているアップデートによって「睡眠時無呼吸症候群」の検出が可能となる。加速度計を使用して睡眠中の呼吸障害を監視し、30日間のデータを分析して中程度から重度の睡眠時無呼吸の兆候を通知するという。

 この機能は臨床研究で検証され、米FDAや日本を含む各国規制当局の承認を近く取得する見込みだ。なお、この機能はダブルタップ対応の加速度センサーを生かして実装されるため、「Apple Watch Series 9」や「Apple Watch Ultra 2」でも利用できる。

 Series 10に搭載される「Apple S10 SIPチップ」は、機械学習タスクを高速で処理するために、4基のNeural Engineを搭載している。これにより、ダブルタップなど推論処理を必要とする多くの機能がスムーズに動作する他、同じくAIを活用して通話品質を向上させる新しいノイズ抑制機能も搭載されるという。

 睡眠時の有用性がアップしたことでバッテリー性能への要求も高まるところだが、従来の「最長18時間」という駆動時間はそのままだが、その代わりに充電速度が向上している。公称では30分の充電で容量の80%まで充電できるとのことだ。

 従来のApple Watchはケースが「アルミニウム」か「ステンレス」だったが、Series 10ではステンレスケースが廃止され、代わりに「チタニウム(チタン)」ケースモデルが用意される。チタンケースは高級感と軽量性の両立を実現している。

 アルミニウムケースについては、光沢仕上げの「ジェットブラック」カラーが追加された。このカラーはシリカ研磨による光沢仕上げに30層ものイオンプレーティング加工、さらにDLC(ダイアモンドライクカーボン)コーティングを採用した特別なカラーだ。

 チタンケースの採用に合わせて、純正のステンレスストラップは、チタンモデルのカラーに合わせたラインアップに一新される。

 なお、Apple Watch Ultra 2は継続販売されるが、新たに「ブラックチタニウム」が追加され、チタン素材を用いたより高級なミラネーゼループを採用したモデルも用意されている。

●新型「AirPods 4」はライバルキラーに

 Appleのワイヤレスイヤフォン「AirPodsシリーズ」は、発売以来世界で最も売れているワイヤレスイヤフォンであり続けてきた。その強みに関して改めてここで伝える事はしないが、今回発表された第4世代の「AirPods 4」は、ライバルたちが価値を見いだしてきた「AirPodsがカバーしていない領域」の製品も駆逐しかねない。

 従来のAirPodsは、あえて遮音性を追求せず、耳にかけるだけの軽快な装着感を魅力としてきた。しかし、AirPods 4では、カメラやレーザーによる立体スキャン技術で数千もの耳の形状を分析し、より多くの人に快適にフィットする新しい形状をデザインしたという。

 音質面でもより豊かな低音と澄んだ高音を実現しているというが、こればかりは実機でなければ確認できない。しかし、より注目したいのは、AirPods 4にアクティブノイズキャンセリング(ANC)機能を搭載したモデルも用意されていることだ。

 オープン型イヤフォンのANC搭載モデルは、Huawei(ファーウェイ)が先鞭(せんべん)をつけた領域だ。何といっても「軽快な装着感」と「ノイズコントロール」を両立できることがメリットだ。

 特に機械学習による適応型ノイズキャンセル機能は、周囲の状況やユーザーの行動予測に応じた適切な動きが期待できる。オープンエアの軽快な使用感をそのままに、店舗での買い物や友人との会話時がスムーズに行え、さらに突然の騒音に対しても難聴リスクを抑えることが可能になるだろう。

 常時、装着していても快適なオープンエアならではの価値だが、同時に最近の流行であるフルオープン型イヤフォンへのアンチテーゼとなるかもしれない。

 一方、密閉型ワイヤレスイヤフォンの「AirPods Pro(第2世代)」には、アップデートにより聴覚補正機能を導入するという。正規の補聴器ではないものの、補聴器と同等の音声補正が行えるとのことだ(※1)。

(※1)海外では補聴器の購入に処方せんが必要な国が多いため、補聴器として扱うには法的なハードルがある(日本では処方せん不要で購入可能だが、事前に耳鼻科医との相談が推奨される)

 繰り返しだが正規の補聴器ではないし、そもそも最長5時間しかバッテリー駆動できないため、「1日中聴覚をサポートするデバイス」として運用できない。しかし、スマホアプリが提供する聴覚テストだけで聴覚の補正を行えるとなれば、補聴器を補完するデバイスとして普及するかもしれない。

 この機能は対象国における保健機関の製造/販売承認を得た上で、2024年秋をめどに日本を含む100超の国/地域で利用できるようになる見込みだ。

この記事の関連ニュース