人工知能(AI)ツールで生成された画像は、人が作成した画像と区別するのがますます難しくなっている。AIが生成した画像は大量の誤情報を拡散し、AIの無責任な利用につながる可能性がある。こうした状況を受けて、Google傘下のGoogle DeepMindは、AIが生成した画像と人が作成した画像を区別できるようにするための新たなツール「SynthID」を発表した。
このツールは、AIで生成された画像に肉眼では見えない電子透かしを埋め込むもので、電子署名のような働きをする。フィルターの追加、圧縮、色の変更などの修正を加えた後でも、このツールを使って透かしを検出すれば、AIで生成された画像を識別できる。
SynthIDは、2つのディープラーニングモデルを1つのツールに統合している。一方のモデルでは、視覚的な整合性を確保しつつ肉眼では見えない方法で元のコンテンツに透かしを追加し、もう一方のモデルでは、透かしの入った画像を識別する。
現時点で、SynthIDはテキストから画像を生成するGoogleのツール「Imagen」で作成された画像に対象が限定されているため、AIが生成したすべての画像を検出できるわけではない。しかし、これは「責任あるAI」(レスポンシブルAI)の実現に向けて今後期待が持てることを示すものであり、特に他の企業が自社の生成AIツールにSynthIDを採用すれば、その期待は高まる。
SynthIDは、Googleの機械学習ツール「Vertex AI」でImagenを利用している一部のユーザーを対象にベータ版としてリリースされる。ただしDeepMindは、他のGoogle製品やサードパーティー製品でも近く利用できるようにしたいとしている。
Google DeepMindの発表この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス