「Pixel 4」のカメラはどう進化したか--開発者に聞く最新技術の裏側 - (page 2)

Stephen Shankland (CNET News) 翻訳校正: 川村インターナショナル 編集部2019年10月18日 07時30分

連続ズーム

 Googleは、Pixel 4のデュアルカメラを、従来の連続的なズームの柔軟性を備えた1つのカメラととらえてほしい、と考えている。望遠カメラの焦点距離はメインカメラの1.85倍の長さだが、Pixel 4は光学ズームと同じ品質で最大3倍までデジタルズームする。

 それが可能なのは、手ブレを悩みの種から利点へと巧妙に変える「Super Res Zoom」というGoogleのテクノロジーのおかげだ。小さな手ブレにより、カメラは背景のより細かなデータを収集できるため、Pixel 4は写真をより高い画質で拡大することが可能だ。

 「私はよく写真を4倍、5倍、6倍に拡大するが、画質を特に気にすることもない」(Levoy氏)

 iPhone 11は、Pixel 4にはない超広角カメラを備えているが、Levoy氏はズームアウトするよりもズームインしたいと話す。同氏はPixel 4の発表イベントで、「広角を使うのが楽しいこともあるが、望遠の方が重要だとわれわれは考えている」と述べている。

ズームで撮影されたビルの写真
提供:Google

「HDR+」の効果をリアルタイムで確認

 HDR+は、明るい部分と暗い部分の両方の細部を記録するGoogleのHDRテクノロジーだ。具体的には、高速で連続撮影された最大9枚の露出不足の写真を組み合わせて、1枚の写真を完成させる。これは多くの計算処理を伴うプロセスであり、これまでは写真の撮影後にしか実行できなかった。だが、Pixel 4は、ビューファインダー上の画像にリアルタイムでHDR+を適用することができる。

 これを見ると、どのような写真を撮影できるのかがよく分かるので、画面をタップして露出を設定することに神経を使う必要がなくなる、とLevoy氏は述べている。

明るい部分と暗い部分を別々に制御

 「Live HDR+」のおかげで、Googleはより高度なカメラ制御機能を提供できる。Pixel 4は、1つのスライダーで露出を補正して写真全体を明るくしたり暗くしたりするのではなく、明るい部分用と暗い部分用に別々のスライダーを提供する。

 つまり、背景の空が白飛びしてしまうことを心配せずに、前景の影になった顔を明るくした写真を撮影することができる。あるいは、白いウェディングドレスと黒いタキシードの両方の細部を綺麗に映し出すことも可能だ。

 Levoy氏によると、このデュアルコントロールのアプローチはユニークなものであり、それはスマートフォンの分野に限った話ではないという。「このように露出の2つの可変要素をリアルタイムで制御できるカメラはない」(同氏)

天体写真モードで星を撮影

 2018年、GoogleはNight Sightを追加して、HDR+機能を拡張した。これは、薄暗いレストランや夜の街頭で高画質な写真を撮影できる画期的な機能だ。Pixel 4では、それをさらに進化させて、晴れた夜に星を撮影するための天体写真モードを追加した。

 Pixel 4は、合計4分間の露光時間に16枚(1枚につきシャッタースピード15秒)の写真を撮影し、センサーノイズを軽減してから、それらの画像を1枚の写真に融合する。

Pixel 4で撮影された天の川の写真
提供:Google

AIによる色補正

 デジタルカメラは、青い色合いや黄色い街灯、オレンジ色のろうそくの光など、写真の品質を下げるおそれのある色かぶりを補正しようと試みる。Pixel 4は、ホワイトバランスと呼ばれるこの色味の調整を実行できるようになったが、この機能は一部、現実世界の無数の写真によって訓練されたAIソフトウェアが基盤となっている。

 Levoy氏は、その調整の効果がよく分かる写真を見せてくれた。それは女性の写真で、濃い青色の氷の洞窟に立っているにもかかわらず、顔の肌の色合いが自然だった。

より自然なボケ

 ピントが合っていない部分は写真撮影の分野ではボケと呼ばれる。Pixel 4では、ボケが改善され、一眼レフカメラに近い写真を撮影できるようになった。なぜなら、ポートレートモードの計算の多くは、計算の正確さを高めるために生の画像データで実行されるからだ。例えば、点状の光源はボケ部分に灰色ではなく白色の円を生成するようになった。

高度な編集を可能にする深度データ

 Pixel 4では、深度マップと呼ばれる、3Dの背景に関する情報をすべての写真に記録する機能が追加されている。これにより、「Adobe Lightroom」などのツールで、強力な編集機能を利用することが可能になる。Adobe Lightroomは、「iPhone」で撮影された写真の深度マップを扱うこともできる。

 これらのすべての機能は、コンピュテーショナルフォトグラフィーへの大規模な投資を象徴するものだ。Appleも「ナイトモード」「スマートHDR」「Deep Fusion」といった独自の機能でコンピュテーショナルフォトグラフィーを採用している。Levoy氏も、Googleは「一歩先を行き続けるためには、より速く走って、より深く息を吸い込まなければならない」と認めた。

 だが、AppleもGoogleの取り組みに以前より注目するようになっている。「Appleに追随されることは、ある意味で嬉しい評価だ」(Levoy氏)

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]