1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

iPhoneの「カメラ」が17年間も進化を続ける背景 初代カメラの画素数はたったの200万画素だった

東洋経済オンライン / 2024年9月5日 12時0分

iPhone 13では映画のようなシーンが撮れるシネマティックモードが追加されるなど、新しい撮影体験は最も力を入れてアピールされてきた。

“Pro”という名称が使われるようになり、広角レンズが追加されて3眼レンズを搭載したのはiPhone 11 Proからで、iPhone 12 ProではさらにLiDARという深度情報を獲得できるセンサーを搭載。ポートレートモードの性能が大きく向上した。現行モデルに至るまで、Proモデルで3眼のカメラの横にある黒い丸がLiDARセンサーである。

アップルは写真業界、映像業界、出版業界などと関わりが深いため、写真の仕上がりはクセの少ないニュートラルなものであることを重視し続けた。

彩度やコントラストを強くすると彩度が飽和したり、白飛びしたり、黒ツブレしたりした画像となり、後から加工が難しい。

しかし、iPhone Xの時代(2017年)から勢いを増してきたAndroidスマホは、彩度の鮮やかさと強めのコントラストで、いわゆる“映え”を意識した画質チューニングで人気が出始めた。ソフトウェアによる画像処理で、美顔モードなどを備え、目はパッチリ、肌はスベスベといった具合に“盛れる”のがSNS世代の需要と合致した。

アップルは、かたくなにその流れに乗らなかったが、iPhone 12 Proからソフトウェアによる画像処理自体は行うようになった。今日では当たり前のようにAIが処理している調整だ。

iPhone 12から“映え”に大きく舵を切った

iPhone Xから搭載し、徐々に進化してきたNeural Engineを用いることで、瞬時に高度な画像処理が可能になった影響も大きい。遠方の風景は解像感を高く、空は青く抜けがよく、人肌はナチュラルにと、『何が写っているか?』をiPhoneが理解するようになったのだ。

また、iPhone 12 ProからはApple ProRAWに対応し、iPhone単体で無加工の(しかしデータサイズは非常に大きい)画像の撮影が可能になっている。

精密な加工を施して作品として仕上げたいプロユースの場合はApple ProRAWで撮影できるようになったことで、通常の撮影時はNeural Engineで大きく加工して一般受けするような派手な画像に仕上げてもよいという方針になったのかもしれない。

いずれにせよiPhone 12 ProからiPhoneの画像は“映え”方向に大きく舵を切ったといえる。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください