1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

Appleが「マルチカメラ編集」へ向かう理由 「Final Cut Pro 2」新機能から読み解く、その“本気度合い”

ITmedia NEWS / 2024年6月7日 12時52分

 こうした流れが合流した結果、ライブソリューションにはマルチカメラが必須、カメラの台数はスマートフォンでカバーしていく、という方向性が確立されていった。

 もう1つマルチカメラに欠かせない技術は「同期」である。共通のタイムコードを供給していないカメラを同時に録画した場合、各カメラの映像の時間軸はバラバラになっている。これを誰がどこでどうやって合わせるのかは、なかなか難しい。

 Blackmagic Cameraの場合、マルチカメラそれぞれに収録したものをクラウド上に集めて、それらを素材として編集するというソリューションなので、それほど同期は問題にならなかった。同じ音が入っていればDaVinci Resolve上で同期できるし、別途Bluetoothでタイムコードが送れる「TENTACLE SYNC E」に対応する事で、問題をクリアした。

 NABで発表されたDaVinci Resolveのライブマルチカメラ機能は、もともとタイムコードで同期できるクラスのカメラの映像をNASで記録し、そのファイルをリアルタイムで取ってくるという仕組みなので、最初から同期は問題ないというソリューションだ。

 Appleのライブマルチカム機能は、撮影時にリモートで色合わせできる、撮影後に改めて編集する、という位置付けのように見える。iPad上で4ストリームを同時に走らせて、スイッチングのように切り替えできるようにするのだろう。

 これはDaVinci Resolveのマルチカメラソリューションと同じである。Final Cut Pro 2にも、同様の機能をもたせるということだろう。ただそうなると、Final Cut Pro 2の上で複数クリップを集めて、音声による同期をかけるという、DaVinci Resolveと同じ方法になる。これはまあまあ面倒な作業なので、今より簡単にならなければ、DaVinci Resolveを使っても同じじゃん、ということになる。

 本来なら収録段階できちんと同期が取れているというのが、筋だ。このカメラ同期に関してAppleに新しいソリューションがあるなら、改めて注目する価値がある。

 考えられるのは、iPhoneはNTPサーバに対して時刻同期しているので、この精度を上げることで実時間をタイムコードの代わりにして同期させるという手法だ。Blackmagic Cameraにも似たような機能があるのでテストしてみたことがあるが、最大で5フレームぐらいずれているので、現状の実装では実用的ではない。

 あるいはiPad側がPTP(Precision Time Protocol)のマスターになってiPhoneをスレーブ化するみたいな方法があるならば、かなり革新的だ。ネットワーク経由の同期情報伝送が本格化する可能性がある。

 逆にそれほど新しいソリューションもなく、ただ成り行きで撮れるだけというのであれば、それほどイノベーティブでもない。この程度でいいんだ、ということになれば、あっという間に他社も追い付くだろう。

 いずれにせよ、これまではサードパーティーに丸投げだった映像制作ソリューションを、Appleがもう一度取り組むというのであれば、業界はかなり面白いことになる。しかし単にM4のパフォーマンスを見せたいためというのであれば、業界からの失望感はかなり大きなものになる。

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください