logo

「Pixel 4」のカメラはどう進化したか--開発者に聞く最新技術の裏側

Stephen Shankland (CNET News) 翻訳校正: 川村インターナショナル 編集部2019年10月18日 07時30分
  • このエントリーをはてなブックマークに追加

 この3年間、Googleの「Pixel」スマートフォンはカメラ性能について好評を得てきた。同社は「Pixel 4」と「Pixel 4 XL」で、カメラのハードウェアとソフトウェアをさらに強化している。

Night Sight
「Night Sight」はクリエイティブな可能性を開くものだ
提供:Sarah Tew/CNET

 Googleが米国時間10月15日に発表したこれらの主力Androidスマートフォンは、2つ目となる1200万画素のカメラを備える。これは、改良されたポートレートモードの鍵となるコンポーネントだ。背景を人工的にぼかして被写体を目立たせるポートレートモードは、より高い精度で機能し、さまざまな被写体や構成に対応するようになった。

 追加のカメラはGoogleがあらかじめ公表していたもので、Pixel 4の撮影性能に関する改良点の1つにすぎない。他の多くは、強化されたズーム性能、ライブビュー状態でもHDRを適用できる「Live HDR+」、星空も撮影できるようになった「Night Sight」(夜景モード)など、コンピュテーショナルフォトグラフィーに関する同社の優れた腕前によって実現している。


 これらの新機能は、競合ひしめく無情なスマートフォン市場でGoogleが優位に立つ手段としては確かなものだ。Googleは、Pixel 4シリーズに多くのことがかかっていることを認識している。同シリーズは、サムスンとAppleというスマートフォンの2大巨頭が展開するモデルに比べればささいな存在だ。6月、Googleは低価格の「Pixel 3a」に関する予測を引き上げた。しかし成功するためには、サムスンの「Galaxy」シリーズなどからPixelへと顧客を誘導できる通信事業者や小売パートナーと、より強固な提携関係を築くことも必要だ。

 カメラ性能の強化はGoogleが自社のみで実現できることであり、写真は重要だ。われわれはますます多くの写真を撮るようになっており、人生を記録してそれぞれの瞬間を友人にシェアしている。Googleがプロの写真家を複数招いて製品を検証させていたのもうなずける。Pixel 4がさまざまな新テクノロジーをどのように活用しているのかを知るため、筆者は、Googleの著名なエンジニアであるMarc Levoy氏と「Pixel」カメラ製品担当マネージャーのIsaac Reynolds氏に話を聞いた。この両氏がPixel 4のカメラの開発を主導した。

 Levoy氏はPixel 4の発表イベントで、自らコンピュテーショナルフォトグラフィー機能を披露しただけでなく、同テクノロジーを支える数学的処理の一部も明かした。そして「この技術はマッドサイエンスではなく、単純な物理学にすぎない」と語り、「iPhone 11」のコンピュテーショナルフォトグラフィー機能に対するAppleの表現にチクリ。

 Pixel 4のメインカメラは1200万画素のセンサー(F1.7)、望遠カメラは1600万画素のセンサー(F2.4)をそれぞれ備える。ただし、望遠カメラが生成するのは、センサーの中央部分から撮影された1200万画素の写真だ。中央のピクセルだけを切り取ることで、ズームの距離を少し伸ばし、1600万画素を扱うのに必要な大きな処理負荷を減らす。Levoy氏によると、Googleはソニー製のセンサーを使用しているという。

3Dを認識する2つの方法

 近くの被写体と遠くの背景を区別するために、Pixel 4のポートレートモードでは、人間の両眼視差の仕組みを参考にして、3Dで物体を認識する。人間は、2つの目それぞれに見える視界を比較することにより、空間情報を再現する。

 ただし、Pixel 4ではこのような比較(視差)を2種類利用する。1つ目が、1つの超小型レンズの片側ともう一方の側の視点(その間の距離はわずか1mm)による差で、2つ目が、2つのカメラの視点(その距離は約10mm)による差だ。距離の異なる2種類の視差を利用するこの技術のおかげで、カメラは距離の近い被写体と遠い被写体の両方の深度を判断できる。

 「それぞれの長所を利用できる。どちらか一方では不十分な場合は、もう一方が稼働する」(Reynolds氏)

背景をぼかして被写体を際立たせている写真
背景をぼかして被写体を際立たせることができる
提供:Google

 さらに、これらの2つの視差は垂直方向に対しても有効だ。つまり、1つの方法で上下の違いを判断し、もう1つの方法で左右の違いを判断することが可能である。これにより、特に多くの垂直線があるフェンスのようなものでは、3D認識の精度が向上するはずだ。

 カリフォルニア州マウンテンビューにあるGoogle本社で椅子に座ったLevoy氏は、「MacBook Pro」に写真を次々と表示させて、その機能の効果を見せてくれた。ある写真では、バイクの機械的な構造のすべてがフレーム全体に収められていた。別の写真では、男性がカメラから離れた位置に立っており、全身を見ることができる。いずれの写真でも、背景が自然にボケていた。これは、「Pixel 3」のポートレートモードでは不可能だろう。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]