グーグル、安全な人工知能開発のために問うべき課題に関する論文を発表

Luke Lancaster (CNET News) 翻訳校正: 佐藤卓 長谷睦 (ガリレオ)2016年06月23日 12時39分
  • このエントリーをはてなブックマークに追加

 Google Research所属のChristopher Olah氏が、米国時間6月21日付のブログ記事で、より賢く安全な人工知能(AI)の開発に関する5つの大きな課題を提起した。

 この記事はGoogleがOpenAI、スタンフォード大学、カリフォルニア大学バークレー校の研究者らと共同で執筆した論文「Concrete Problems in AI Safety」(AIの安全性に関する具体的な問題)と共に公開したものだ。その目的は、現実世界での試験で適用可能な具体的課題を研究者に提示することで、AIの開発と利用にまつわる、抽象的な懸念や仮説に基づいた懸念を乗り越えることにある。

 「これらはすべて、将来を見据えた長期的な研究課題だ。今は重要な問題ではないが、将来のシステムに備えて対処することが重要になる」とOlah氏はブログの中で述べている。

 このブログで提起された5つの問題は、以下の通り:

  • マイナスの副作用を避ける:AIは決められたタスクを完了させるにあたり、周囲の環境に悪影響を与えるべきではない
  • 報酬目当てのごまかしをしない:AIは、その場しのぎの策ではなく、適切なやり方で仕事を完了するべきである(例えば、クリーニングロボットが、泥を除去する代わりに泥と認識していない別の物質で泥を覆い隠すなど)
  • 柔軟な管理:AIは常にフィードバックを必要とするべきではない。効果的にインプットすべきである
  • 安全の重視:AIは学習中に自分自身や環境を傷つけてはならない
  • 環境の変化に対する堅牢性:AIは新しい環境を認識し、その環境に合わせて効率的に仕事をこなさなければならない。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

  • このエントリーをはてなブックマークに追加