「Facebook」や「Instagram」、AI生成画像にラベルを追加へ

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部2024年02月08日 12時58分

 生成型の人工知能(AI)によって、人間が実際に撮影したかのようなリアルな画像が作成可能になり、何が本物で何がAIで生成したものかが判別しにくくなっている。Metaはこの状況を受け、偽情報に対抗するために、AI生成画像に関するいくつかの取り組みを発表した。

AI生成画像であることを示すラベルの表示例
提供:Meta

 同社は米国時間2月6日、今後数カ月以内に、「Instagram」「Facebook」「Threads」に対して、画像がAIによって生成されたことを表示する新たなラベルを追加すると発表した

 Metaは現在、業界のパートナーと協力して、AIで生成されたコンテンツを検出するための共通の技術標準を策定する取り組みを進めている。また同社の各プラットフォームそれらが検出された場合に、AIで生成されたことを示すラベルを表示する機能を開発している。ラベルは、各プラットフォームが対応するすべての言語で表示できるようにするという。

 このラベルは、2023年9月に「TikTok」に搭載された、AIで生成された本物らしく見える画像や音声、動画に付けられるAI生成コンテンツラベルと似たような役割を果たす。

 Metaはすでに、「Meta AI」を使用して生成されたすべての画像に、目に見えるマーク、不可視の電子透かし、IPTCのメタデータを埋め込んでいる。これらの画像には、「Imagined with AI」というラベルを付け、人工的に作成されたものであることを表示している。

 もちろんこの仕組みは、悪意のあるアクターであれば利用できる抜け穴がある。もしAI画像生成ツールにメタデータを追加するということに従わない会社があれば、Metaがその画像にラベルを付けることはできない。とはいえ、これは正しい方向への一歩ではある。

 さまざまな企業がAI生成画像に何らかのシグナルを埋め込む取り組みをしている一方で、動画や音声に関してはまだ対策が進んでいない。一方Metaは、ユーザーが動画や音声を生成する際にAIを使用したことを自ら開示して、Metaが適切なラベルを付けられるようにする機能を追加する。

 Metaは、この自発的な開示をユーザーに義務づけ、開示を怠った場合にはペナルティを適用する可能性があるという。また、特に一般大衆が騙されるリスクが高い画像、音声、動画に対しては、目立つラベルを追加する機能も用意する。

 これらのツールが開発された背景には、米国などで選挙が目前に迫っている重要な時期に差し掛かっていることがあるとみられる。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]