logo

グーグル、子供の性的虐待コンテンツを特定するAIツールを提供

Steven Musil (CNET News) 翻訳校正: 編集部2018年09月04日 09時12分
  • このエントリーをはてなブックマークに追加

 Googleは米国時間9月3日、インターネット上の子供の性的虐待画像を特定する企業や組織を支援することを目的とした、無料の人工知能(AI)ツールをリリースした。

 Googleの「Content Safety API」は開発者向けツールキットで、ディープニューラルネットワークを活用し、画像を目にしなければならない人の数を少なくする形で、審査能力を拡大させる。これにより、検出される子供虐待コンテンツは700%増加すると、Googleは述べた。

 「新規画像を迅速に特定できれば、性的虐待を現在受けている子供を特定し、それ以上虐待されないように保護できる確率は格段に高くなる」と、エンジニアリング責任者のNikola Todorovic氏と製品マネージャーのAbhi Chaudhuri氏は、3日付けの同社ブログ記事に記した。「NGOや業界パートナーを対象に、Content Safety APIを介してこれを無料で提供する。Content Safety APIは、画像を目にしなければならない人の数を少なくする形で、コンテンツの審査能力を引き上げるツールキットだ」(両氏)

 AIの活用は、野火のような速さでIT業界に広まっており、音声認識からスパム除去にいたるまでのあらゆる目的に使用されている。AIは一般的に、人間の脳を大まかにモデル化した機械学習やニューラルネットワークと呼ばれる技術を指す。実世界のデータで一度トレーニングされたニューラルネットワークは、例えば、スパムメールの特定、音声のテキストメッセージへの変換、ネコの認識を学習することができる。

 オンライン上の子供の性的虐待画像をできる限り減らすことを目指すインターネット監視財団(IWF)は、同ツールの開発を称賛し、これによってインターネットの安全性は高まると述べた。

 「われわれと、特にわれわれの専門アナリストらは、このAIツールの開発をとてもうれしく思っている。これにより、これまでは違法として検出されていなかった画像を対象に、人間の専門家はさらに大きな規模でコンテンツを審査し、違反者の動きに対応していくことができる」とIWFの執行官であるSusie Hargreaves氏はGoogleの発表の中でコメントし、「この新しい技術の共有によって、画像の特定が高速化され、それによってインターネットは、苦難を乗り越えた人にとってもユーザにとってもより安全な場所になる可能性がある」とした。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]