Infoseek 楽天

Appleが「マルチカメラ編集」へ向かう理由 「Final Cut Pro 2」新機能から読み解く、その“本気度合い”

ITmedia NEWS 2024年6月7日 12時52分

 日本時間5月8日に開催されたAppleの新製品発表会は、開催が午後11時だったこともあって、多くの人がリアルタイムで視聴したようだ。新iPadがメインで、多くの人がそこに言及しているが、動画制作のプロならiPadを使った新しい「Final Cut Pro 2」のアプローチに注目したことだろう。

 iPadは動画編集にも対応できるパワーがありながら、プロ用動画編集アプリの選択肢が少なかった。2018年に「Adobe Premiere Rush」が登場したが、これは名前の通りラッシュ編集ができる程度で、最終的にはPremiere Proにプロジェクトを渡して仕上げるという格好だった。iPadの機動力を生かすという点に注目したということだろう。

 その後もサードパーティーの参入がいくつかあったが、iPadでフィニッシングまでやるという発想が出てきたのは意外に最近で、22年10月に発表された豪Blackmagic Designの「DaVinci Resolve iPad版」の登場まで待たなければならなかった。

 追って23年5月には、iPad版「Final Cut Pro」が登場したが、あまり話題にならなかった。Mac版「Final Cut Pro X」は2011年に登場して13年も経つのに、バージョンが0.7.1しか上がっておらず(今度10.8になるそうだが)、市場で競争力はない。iPad版が登場しても、ニュースバリューがなかったのだろう。

 だが、イベントで発表されたiPad版「Final Cut Pro 2」は、1年でメジャーアップデートしたわけで、やる気があるんだろうなぁと評価できる。まだ現時点ではリリースされていないため実際のテストはもう少し先になるだろうが、単に編集できるだけでなく、ライブマルチカム機能を強化してきた。この機能の背景を探ってみたい。

●これ、どこかで見たような……

 まずiPad版「Final Cut Pro 2」のライブマルチカム機能とはどういうものかを整理してみよう。ベーシックには、iPadに最大4台までのカメラを同時にワイヤレスで接続し、コントロールできる機能を搭載するというものだ。

 このカメラはiPhoneもしくはiPadということになり、撮影のための専用カメラアプリ「Final Cut Camera」が提供される。このアプリ上では、ホワイトバランス、手動フォーカス、ISO感度、シャッタースピードがマニュアルで調整できるようだ。ここからリアルタイムでiPadのFinal Cut Pro 2に伝送されるのはプレビュー用のストリームで、これを見ながらリモートで各カメラの露出、フォーカス、ズームが制御できるという。

 ここから先はプレスリリースに書かれた、よく分からない説明を解読していくしかないのだが、この4つのリアルタイムプレビューは、単にモニターできるだけ、という可能性が高い。本来ならライブでiPad側にも録画されればいいのだろうが、それができるのかできないのか、現在の書きぶりではわからない。ただ撮影後になるのか、先にプロキシデータが伝送され、それを使って編集が開始できる。後々フル解像度のデータが転送されると、それに差し替えられるということのようだ。

 またiPad上のストレージ容量を補助するために、外部ストレージをつないでおき、その中にプロジェクトファイルが置けるようだ。プロジェクトファイルが外部に置けるという意味がよく分からないと思うが、Final Cut Proはプロジェクトファイル内に素材クリップデータもパッケージ化して内包してしまうので、プロジェクトファイルがクソデカになるのである。よって外部ストレージにプロジェクトファイルが置けるということが、メリットとして紹介されているというわけである。

 さて、ここまでご紹介したところで、このアプローチはどこかで見たことが……と気付く方もいるだろう。編集ソリューションのために専用カメラアプリを用意するという方法は、23年9月の「Blackmagic Camera」と同じ手法である。10月30日に開催されたAppleのイベント「Scary Fast」の映像が、iPhone 15 Pro MaxとBlackmagic Cameraを使って撮影されたことで一躍知られることになったiPhone用カメラアプリだ。

 この事例からも分かるように、Appleは自社では賄えない動画映像制作関連の技術開発で、Blackmagic Designと蜜月関係にある。

 そしてもう1つは、編集アプリにライブマルチカム機能を搭載するという発想だ。これは24年4月に行われた世界最大の映像機材展「2024 NAB Show」で、Blackmagic Designが同社のハイエンド編集ツールDaVinci Resolveに、ライブマルチカメラ機能を搭載した動きとよく似ている。ライブカメラ映像を表示して興味を引くポイントに「POI」(Point of Interest)マーカーを打つと、そこがキャプチャーされてタイムラインに配置されるというマルチソース機能が搭載された。POIはリプレイを行うためのポイントとしても活用され、マルチカメラ映像を同時に動かしてリプレイ再生ができる。

 このような経緯から、今回のiPad向けライブマルチカムソリューションは、Blackmagic Designとのコラボレーションの中で実現したものと見るべきだろう。この点は、「さすがApple、どこもやっていないことをやった」みたいな記事が出回る前に指摘しておく。おそらくBlackMagic Designのソリューションと食い合わないよう、すみ分けが行われたものと考えられる。

 まあその割にはiPad Proのプロモーション動画「Crush!」の中で、DaVinci Resolve Mini PanelとDaVinci Resolve Editor Keyboardを派手にぶっ壊しているので、ティム・クックはあとでグラント・ペティ(Blackmagic Design CEO)に怒られろ。

●マルチカメラソリューションに必要な技術

 マルチカメラによるコンテンツ制作は、ライブではスポーツ中継、プロダクションでは音楽コンサートなどで古くから行われていた。それが今回のように、iPadのウリとして紹介されるようになるまでには、結構長いステップがある。

 まず2010年前後に世界的なUstreamブームが起こり、ネットライブ配信が大衆化した。最初はネットに詳しい好事家だけのものだったネットライブは、次第にそれを業務化する層が表れた。アマチュアにはできない差別化として、PCや2~3台のビデオカメラを切り替えるため、これまではテレビ放送以外では使われたことがなかったビデオスイッチャーに注目が集まった。

 こうしたスイッチング結果を収録してしまえということから、ローランドのスイッチャーは初期から録画機能が搭載されていた。その後、スイッチング後ではなく入力ソースも全部撮れた方がいいということから、Blackmagic DesignのATEM Mini ISOシリーズが登場した。これはワイヤードでカメラをつなぎ、スイッチャーを拡張してレコーダーとする方向性だ。

 一方でネットワーク機能が最初から載ったカメラとして、スマートフォンが注目されたのは結構早かった。ローカルWi-FiにつないだiPhoneの映像をiPad等に飛ばしてスイッチングするという試みは、すでに2011年にB.U.Gの「TapStream」というソリューションがあった。この方法論は手を変え品を変え、何度となく現われている。23年にはTOMODY(東京都千代田区)から「WRIDGE LIVE」というサービスが登場している。

 こうした流れが合流した結果、ライブソリューションにはマルチカメラが必須、カメラの台数はスマートフォンでカバーしていく、という方向性が確立されていった。

 もう1つマルチカメラに欠かせない技術は「同期」である。共通のタイムコードを供給していないカメラを同時に録画した場合、各カメラの映像の時間軸はバラバラになっている。これを誰がどこでどうやって合わせるのかは、なかなか難しい。

 Blackmagic Cameraの場合、マルチカメラそれぞれに収録したものをクラウド上に集めて、それらを素材として編集するというソリューションなので、それほど同期は問題にならなかった。同じ音が入っていればDaVinci Resolve上で同期できるし、別途Bluetoothでタイムコードが送れる「TENTACLE SYNC E」に対応する事で、問題をクリアした。

 NABで発表されたDaVinci Resolveのライブマルチカメラ機能は、もともとタイムコードで同期できるクラスのカメラの映像をNASで記録し、そのファイルをリアルタイムで取ってくるという仕組みなので、最初から同期は問題ないというソリューションだ。

 Appleのライブマルチカム機能は、撮影時にリモートで色合わせできる、撮影後に改めて編集する、という位置付けのように見える。iPad上で4ストリームを同時に走らせて、スイッチングのように切り替えできるようにするのだろう。

 これはDaVinci Resolveのマルチカメラソリューションと同じである。Final Cut Pro 2にも、同様の機能をもたせるということだろう。ただそうなると、Final Cut Pro 2の上で複数クリップを集めて、音声による同期をかけるという、DaVinci Resolveと同じ方法になる。これはまあまあ面倒な作業なので、今より簡単にならなければ、DaVinci Resolveを使っても同じじゃん、ということになる。

 本来なら収録段階できちんと同期が取れているというのが、筋だ。このカメラ同期に関してAppleに新しいソリューションがあるなら、改めて注目する価値がある。

 考えられるのは、iPhoneはNTPサーバに対して時刻同期しているので、この精度を上げることで実時間をタイムコードの代わりにして同期させるという手法だ。Blackmagic Cameraにも似たような機能があるのでテストしてみたことがあるが、最大で5フレームぐらいずれているので、現状の実装では実用的ではない。

 あるいはiPad側がPTP(Precision Time Protocol)のマスターになってiPhoneをスレーブ化するみたいな方法があるならば、かなり革新的だ。ネットワーク経由の同期情報伝送が本格化する可能性がある。

 逆にそれほど新しいソリューションもなく、ただ成り行きで撮れるだけというのであれば、それほどイノベーティブでもない。この程度でいいんだ、ということになれば、あっという間に他社も追い付くだろう。

 いずれにせよ、これまではサードパーティーに丸投げだった映像制作ソリューションを、Appleがもう一度取り組むというのであれば、業界はかなり面白いことになる。しかし単にM4のパフォーマンスを見せたいためというのであれば、業界からの失望感はかなり大きなものになる。

この記事の関連ニュース