The Wall Street Journal(WSJ)の報道によると、Googleは、人間とコンピュータプログラムの対話について実験をいくつか実施したという。プログラムには映画の脚本に関するデータベースが与えられていた。
対話は記録され、「A Neural Conversational Model」(ニューラル・カンバーセーショナル・モデル)と名付けられた論文(PDF)としてまとめられた。
この対話の1つが傑出している。両者は、道徳観について話をしており、人間が人工知能に道徳観について話すことを強要している。
人間が「道徳的に振る舞うにはどうすればよいか知る必要があるんだ」と言うと、機械は理解するものの「どのように説明すればよいか分からない」と答える。
道徳と倫理が同じかと人間が質問すると、機械は、そうだと答える。しかし、道徳的行為の例を人間が質問すると、機械は「誠実さ」と答える。
誠実さの定義について答えるよう求められると機械は「これ以外に何と言えばよいか分からない」と答える。
事態は悪くなる一方だ。人間が「道徳的になれ!」と強く訴えると、機械は「人間らしくなれ!」と激しくやり返す。
人間が「道徳観と倫理観に関するこの会話を本当に気に入っているよ」と言うと、機械は「哲学的な議論をしたい気分ではない」と答える。
そして、会話は次のようにして終わっている。
「何について話がしたいか?」と人間が聞くと、機械は次のように応じた。
「なにも」
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス