iPhoneの「カメラ」が17年間も進化を続ける背景 初代カメラの画素数はたったの200万画素だった
アップルは写真業界、映像業界、出版業界などと関わりが深いため、写真の仕上がりはクセの少ないニュートラルなものであることを重視し続けた。
彩度やコントラストを強くすると彩度が飽和したり、白飛びしたり、黒ツブレしたりした画像となり、後から加工が難しい。
しかし、iPhone Xの時代(2017年)から勢いを増してきたAndroidスマホは、彩度の鮮やかさと強めのコントラストで、いわゆる“映え”を意識した画質チューニングで人気が出始めた。ソフトウェアによる画像処理で、美顔モードなどを備え、目はパッチリ、肌はスベスベといった具合に“盛れる”のがSNS世代の需要と合致した。
アップルは、かたくなにその流れに乗らなかったが、iPhone 12 Proからソフトウェアによる画像処理自体は行うようになった。今日では当たり前のようにAIが処理している調整だ。
iPhone 12から“映え”に大きく舵を切った
iPhone Xから搭載し、徐々に進化してきたNeural Engineを用いることで、瞬時に高度な画像処理が可能になった影響も大きい。遠方の風景は解像感を高く、空は青く抜けがよく、人肌はナチュラルにと、『何が写っているか?』をiPhoneが理解するようになったのだ。
また、iPhone 12 ProからはApple ProRAWに対応し、iPhone単体で無加工の(しかしデータサイズは非常に大きい)画像の撮影が可能になっている。
精密な加工を施して作品として仕上げたいプロユースの場合はApple ProRAWで撮影できるようになったことで、通常の撮影時はNeural Engineで大きく加工して一般受けするような派手な画像に仕上げてもよいという方針になったのかもしれない。
いずれにせよiPhone 12 ProからiPhoneの画像は“映え”方向に大きく舵を切ったといえる。
無料会員登録はこちら
ログインはこちら