Googleが開発した新しいコンピュテーショナルフォトグラフィ技術により、スマートフォンで撮影した写真を補正する作業はまもなく過去の話になるかもしれない。
Googleが生み出した新たな画像処理アルゴリズムは、マサチューセッツ工科大学(MIT)のコンピュータ科学および人工知能研究所(CSAIL)が開発した、画像を自動でレタッチするクラウドベースのシステムを基に構築されている。
MITのシステムは2015年に開発された。同システムは、低解像度の画像をクラウドに送信して処理し、個々の画像に合わせた「変換レシピ」を返して、スマートフォンに保存されている高解像度の画像を編集するというものだった。
Googleの画像アルゴリズムは、MITのシステムがクラウドでやっていたことを機械学習を利用してニューラルネットワークを訓練することで、処理をスマートフォンに移行し、ファインダ画像を数ミリ秒(ミリ秒は1000分の1秒)以内で効率的に生成する。
この取り組みは、GoogleとMITの研究者が共同で執筆した論文で提示された。論文では、このアルゴリズムを「スマートフォン上にある高解像度の画像を数ミリ秒で処理する。解像度1080pのリアルタイムファインダを実現し、大量の画像オペレータを利用した最新の近似技法の画質に匹敵する」と説明している。
画像オペレータは、自撮り写真の修整、フィルタ、画像のスライス(分割)、色補正などのタスクを処理する。
Apple、Microsoft、Googleなどはすでにコンピュテーショナルフォトグラフィを利用して、ハードウェアの制約にとらわれることなくスナップ写真の画質を高めようとしている。
「iPhone」のデュアルカメラモジュール、Microsoftのカメラアプリ「Pix」、Googleのスマートフォン「Pixel」に搭載されている「HDR+」機能はすべて、コンピュテーショナルフォトグラフィが実用化された一例であり、デバイス上のアルゴリズムを活用して画像を改善している。
ただし、論文が指摘しているように、HDR+はプログラムで定義された画像オペレータの一例だ。GoogleとMITのニューラルネットワークはHDR+などいくつかのオペレータを模倣できる。
GoogleはPixelで技術をテストし、1920×1080の画像を20ミリ秒以内に最終処理されたプレビューにレンダリングすることに成功した。また、処理速度は画素数に比例するため、12メガピクセルの画像では処理に61ミリ秒かかった。
Googleは、ファインダを改善してバッテリへの影響を抑えつつ、リアルタイムで画像補正を実現するこの新しいアルゴリズムに可能性を見出している。
Googleの研究者であるJon Barron氏はMIT Newsに対し、「コンピュテーショナルフォトグラフィに機械学習を利用するのは非常に楽しみな計画だが、携帯電話の計算能力や電力の厳しい制約によって制限される」と述べている。
「この論文はこれらの問題を回避して、バッテリを消耗したりファインダ体験にタイムラグをもたらしたりすることなく、新しく魅力的でリアルタイムの写真体験を生み出す方法を与えてくれるかもしれない」(Barron氏)
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス