「人間より賢いAIシステムに対する安全上の基本的な懸念は、そうしたシステムに正しい目標を完全に伝えるのが難しいということだ」。MIRIのエグゼクティブディレクターを務めるNate Soares氏はこのように述べた。「誤った目標を設定されたシステムの危険性として、そのままにしておけば、限られた資源や支配権を人間と奪い合おうとする可能性が高い」(Soares氏)
そう、適者生存という懸念があるということだ。
このテーマにはプラスの面もある。AIは疾病、医療ミス、人間の不注意な運転などで失われる無数の命を救う可能性があるほか、気候変動を食い止める方策を考え出すのに役立つかもしれない。そう語るのは、スタンフォード大学で人工知能に関する100年の研究を立ち上げたEric Horvitz氏だ。また同氏は、ワシントン州レドモンドでMicrosoft Research Labのディレクターも務めている。
「良い面が悪い面を大幅に上回る可能性は十分にある。悪い面については、慎重に考慮し、事前に動くことで対処できる」(Horvitz氏)
こうした問題について今、深く考えなければならないという意見ばかりではない。OpenAIの共同会長であるSam Altman氏は、人工知能を透明性のある形で発展させていけば、好ましい状態になると予測する。つまり、利益の拡大、権力の集中、あるいは無謀な投機的行動のためにAIを使おうとする1社の企業ではなく、政策立案者、学界や産業界のリーダーの意見に基づいて、人工知能の発展に関する決定を下すということだ。
Altman氏は、このテクノロジを容易に利用できるようにすることで、安全なものにできると述べた。「権力を広く分散すれば、善良な人々の集団が結束して、悪しき集団を食い止める」(Altman氏)
OpenAIは、関心があれば誰とでも研究を共有する予定であり、他の団体にもそうするよう求めている。その精神で、Googleは2015年、同社第2世代のAIソフトウェア「TensorFlow」をオフソース化すると発表した。つまり、誰にでも自由に利用できるということで、間もなく「iPhone」でも使えるようになる予定だ。またFacebookも、思考方法をコンピュータに教えるソフトウェア「Torch」のコードを同様に公開すると述べている。
Facebookの最高経営責任者(CEO)であるMark Zuckerberg氏は、AI肯定派の1人だ。同氏は1月、Facebookへの投稿で次のように述べている。「AIを恐れるべきではない。むしろ、AIがこの世界でどれほど多くのことに貢献するかに期待すべきだ」
今のところ、AIが得意なものは並べ替え、予測の実行、アルゴリズムによる処理などだが、批判的に考えたり、全国共通テストに出題されるような問題を解いたりするのは苦手だ。Allen Institute for Artificial Intelligenceは先ごろ、中学2年相当の理科のテストで最高得点をとったコンピュータプログラムの作成者に5万ドルを贈るというコンテストを考案した。結果としては、すべてが不合格だった。最高でも54%の正答率だった。
ここから得られる教訓は、高度なAIは発達に時間がかかるということだ。その理由は「われわれがものを作る仕組みにある」とFacebookのLeCun氏は言う。「今後20年間に登場するAIのほとんどは、非常に専門的なものになるだろう」(LeCun氏)
それでも、こうした専門家によれば、Siriは間違いなくもっと賢くなっていき、MIRIやOpenAIなどの団体は、AIがスカイネットよりもBB-8に近いものになるよう監視を続けるという。
その一方で、Bostrom氏のような慎重派でさえ、AIの今後の発展から目を離せない。
「人間がスーパーインテリジェントな機械をまったく開発できなかったとしたら、それは悲劇だろう」(Bostrom氏)
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス