「全体を完全に管理できたからこそ、このようなことが可能になった」。GoogleのAndroidカメラチームのリーダーで、2014年からソニーと協力するようになったTim Knight氏はこのように述べた。
Pixelのデジタル手ぶれ補正では、画像のトリミングや歪曲、一般にJell-O(ゼリー)効果と呼ばれるローリングシャッター現象の補正が常に実行される。「本体を揺らしても画質は乱れない」(Burke氏)
iPhone 7のカメラは12メガピクセル解像度でPixelと同じだが、Googleのセンサの方が物理的に大きいため、各ピクセル(1.55μm)が集められる光の量が多くなる。これは暗い場所での撮影に役立つほか、Pixelの絞り値f/2.0のレンズがiPhone 7のf/1.8のレンズほど多くの光を取り込めないことを補ってもいる。
2015年の「Nexus 6P」と「Nexus 5X」のイメージセンサは優秀だったが、競合機種と比べて動作があまりに遅かった。だがBurke氏によると、PixelとPixel XLはAppleの「iPhone 6s」、iPhone 7、サムスンのGalaxy S7より優れているという。
カメラアプリの起動は上位機種のNexus 6Pより40%速い。その理由の1つは、「Android 7.1」ソフトウェアがカメラアプリを前もってメモリに読み込むからだ。写真撮影は74%高速化したとKnight氏は語る。
新しいチップも貢献している。ソニーの新しいセンサ「IMX378」の採用により、PixelとPixel XLのオートフォーカス速度はNexus 6Pより70%向上したとKnight氏は述べた。Googleは2年かけて「Halide」画像処理ソフトウェアを調整し、Qualcommの「Hexagon」テクノロジを利用できるようにした。
Android 7.1もカメラアプリの改善に一役買っている。カメラを縦向きから横向きに回転させても、これまでのように動きがカクカクしなくなった。画面を長押しすると、選択した箇所で露出とフォーカスが固定され、もう一度タップするとリセットされる。フォーカスの設定後、上下にスワイプすると、露出が明るくなったり、暗くなったりする。
パフォーマンス向上の要因は他にも、毎秒30コマの連続撮影がある。シャッターボタンをタップすると、カメラアプリは最大10コマをメモリから取得し、それらを合成して1枚の写真にする。これは、Googleが既に提供している「HDR+」(ハイダイナミックレンジ)テクノロジを改良したバージョンだ。
「目指したのは、画質を維持しつつ速度を上げることだ」(Knight氏)
メモリ上で画像を常に循環させることで、高速連写機能も実現している。
連続撮影の際、Smartburstという機能によって最高と判断された写真が提示されるため、失敗した写真を削除する手間が減る。
たくさん撮影していると、本体のストレージが圧迫されることもあるだろう。しかし、Pixelの空き容量が少なくなると、Googleは古い写真と動画から順に元の画質のままクラウドストレージにアップロードしていく。このクラウドストレージは、Pixelを使っている間、無料で利用できる。
Smartburstは一種の人工知能(AI)テクノロジを利用して、どの写真がベストかを判断する。さらに、たまたま動きが静止した瞬間に撮影された最も鮮明な「幸運の1枚」を選んで、暗所撮影写真を効果的に補正する作業も、そうしたAIによって行われる。Knight氏によると、露出の設定もAIが行うという。
こうしたことが可能になったのは、Googleがすべてのハードウェアとソフトウェアを完全に管理するようになったからだ。「Pixelは私たちのスマートフォンであり、私たちの製品だ」(Burke氏)
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
企業や自治体、教育機関で再び注目を集める
身近なメタバース活用を実現する
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
OMO戦略や小売DXの実現へ
顧客満足度を高めるデータ活用5つの打ち手