Googleは米国時間9月3日、インターネット上の子供の性的虐待画像を特定する企業や組織を支援することを目的とした、無料の人工知能(AI)ツールをリリースした。
Googleの「Content Safety API」は開発者向けツールキットで、ディープニューラルネットワークを活用し、画像を目にしなければならない人の数を少なくする形で、審査能力を拡大させる。これにより、検出される子供虐待コンテンツは700%増加すると、Googleは述べた。
「新規画像を迅速に特定できれば、性的虐待を現在受けている子供を特定し、それ以上虐待されないように保護できる確率は格段に高くなる」と、エンジニアリング責任者のNikola Todorovic氏と製品マネージャーのAbhi Chaudhuri氏は、3日付けの同社ブログ記事に記した。「NGOや業界パートナーを対象に、Content Safety APIを介してこれを無料で提供する。Content Safety APIは、画像を目にしなければならない人の数を少なくする形で、コンテンツの審査能力を引き上げるツールキットだ」(両氏)
AIの活用は、野火のような速さでIT業界に広まっており、音声認識からスパム除去にいたるまでのあらゆる目的に使用されている。AIは一般的に、人間の脳を大まかにモデル化した機械学習やニューラルネットワークと呼ばれる技術を指す。実世界のデータで一度トレーニングされたニューラルネットワークは、例えば、スパムメールの特定、音声のテキストメッセージへの変換、ネコの認識を学習することができる。
オンライン上の子供の性的虐待画像をできる限り減らすことを目指すインターネット監視財団(IWF)は、同ツールの開発を称賛し、これによってインターネットの安全性は高まると述べた。
「われわれと、特にわれわれの専門アナリストらは、このAIツールの開発をとてもうれしく思っている。これにより、これまでは違法として検出されていなかった画像を対象に、人間の専門家はさらに大きな規模でコンテンツを審査し、違反者の動きに対応していくことができる」とIWFの執行官であるSusie Hargreaves氏はGoogleの発表の中でコメントし、「この新しい技術の共有によって、画像の特定が高速化され、それによってインターネットは、苦難を乗り越えた人にとってもユーザにとってもより安全な場所になる可能性がある」とした。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」