高度な人工知能(AI)システムの「人間性」を評価するLoebner賞の結果が発表された。それによると、現在のAIシステムは、まだ十分人間らしいとはいえないようだ。
今年のAIのLoebner賞コンテストの結果を見ると、AIを組み込んだ「ボット」(ロボット)は、チャットルームでの人間の振る舞いをうまく演じるには、まだまだ改善すべき点が多数あることがわかる。
Loebner賞は、英国の有名な数学者で暗号学者のAlan Turingが、1950年に行なった予想に基づくものだ。当時Turingは、コンピュータプログラミングの精度が大幅に向上し、西暦2000年には「平均的な質問者」が5分間会話して、自分の話相手が人間かマシンかを正しく判断できる確率が70%程度になるだろうと予言していた。
これでは、コンピュータが人間を騙せるのは3回に1回程度しかないことになるが、それでもAIプログラマにとって、これは大変な課題だ。今年のLoebner賞コンテストは英国のギルフォードで開催された。コンテストは、2人の人間と10台のマシンが「サーバ室」に隠れ、9人の審判がそれぞれと5分間会話し、会話の相手が人間かマシンかを判断する形で行なわれた。評価は0〜5の6段階で行なわれたが、5は「間違いなく人間」、0は「重大なシステム故障」--つまり、明らかにコンピュータ--という具合だ。
結果は予想通りで、審判はAIボットを人間だと信じるには至らなかった。最も評価が高かったのは、1.928のスコアを獲得した独ハンブルクのJuergen Pirnerが製作した「Jabberwock」だった。1.928という数字は、評価によると「間違いなくマシン」と「おそらくマシン」の境い目になる。審判はJabberwockが人間でないことを見破ったが、少なくともJabberwockは疑いの種をまくことには成功したようだ。
もっとも今回の審判は、人間のおとりですら完全に人間だと判断できなかったことから、そもそもテストの手順に問題があったのかもしれない。こちらのスコアの最高は3.867で、「マシンでも人間でもありえる。判断不能」という評価だった。
英国からのエントリーは、Rollo Carpenterが製作したJabberwackyの1作品だけで、この作品は総合第5位(人間の参加者を除くと総合第3位)に入った。
この記事は海外CNET Networks発のニュースをCNET Japanが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」