Googleの新スマートフォンPixel 3の「夜景モード」が問いかけるもの(あるいはAIとはなんなのかという実感について)
今回は話題のスマホPixel 3のカメラ、しかも鳴り物入りで搭載された「夜景モード」だけに限定した超ニッチな記事です。
でも、このニッチに思える画像技術は、これから先の写真の方向性をもしかしたらすごく変えちゃうかもしれない。そう思うほどに、今回のPixelが搭載した「夜景モード」は、衝撃的な機能でした。
まず、その違いを是非画像でご確認ください。Twitterにもアップしましたが、iPhone Xとまったく同じ時間、同じ場所で撮影した写真を並べたものです。
撮影場所は比叡山の途中にある駐車場で撮影したものです。すっかり日も暮れてあたりは真っ暗な中、少し離れたところから僅かな光が足元に届く程度。
手元はもう見えないくらいの輝度です。その中で撮った二枚の写真。現実に近いのはiPhoneの方です。光の少ないところで写真を撮ると普通は暗い写真しか撮れない。
でもPixelの方は、まるでそこだけ光を当てたような明るさです。もちろん、光なんて当てていません。
PixelとiPhoneを並べて、「せーの!」で同時にシャッターを押した結果がこれなんです。これがPixelの夜景モードの驚愕の性能です。
Twitterの方でも一連の内容をささっと書いたのですが、おそらくPixelがやっていることは、これまでフォトグラファーが時間をかけてやっていたプロセスそのもののようです(詳しくはTHE GUILDのGo Andoさんの一連のツイートが参考になります!)。
三脚を立てて、違う露出の写真を何枚か(何十枚か)ブラケットで撮影し、それをPhotoshop上でならべてレイヤー化し、レイヤーマスクをそれぞれの不要な部分にかけながら、露出の美味しいところだけを合成するという、あの一連の露出合成の流れです。
それは一眼レフとパソコンとPhotoshopでやれることそのものです。
「じゃあ一眼でできるじゃん?」
そのとおりです。
でも、あのでかい一眼レフで、でかい三脚に載せ、何十枚か撮影したデータをパソコンに取り込んで、それをPhotoshopで展開し、
レイヤー合成をして一枚の写真に仕上げるのにかかる手間は、少なく見積もっても数時間。それが約3秒程度で終わります。
以下ソース
https://no◯te.mu/takahirobessho/n/n6dd8735ad968