logo

グーグルはAI翻訳の彼方に「汎用人工知能」を見据えている - (page 3)

  • 一覧
  • このエントリーをはてなブックマークに追加

 なお、このHintonのほか、Yoshua Bengio(モントリオール大学)、それに最近Googleのクラウド関連の取り組みに参加することなったFei-Fei Li(スタンフォード大学、ImageNetの発起人)あたりの名前も頭に入れておくと、この分野に関するニュースを読む上で何かと役に立つかと思う。

 さて、そのHintonがGoogle Brainに関わるようになったのは2012年――同プロジェクトの2年目のことで、これは「ImageNet Challenge 2012」で同氏らの存在が比較的広く知られるようになった数カ月前のこととある。

 Hintonは当初3ヶ月の期間限定でBrainプロジェクトを手伝うことにしたが、当時のGoogleにはこういう大物を短期で雇った前例がなかったようで、Hintonは入社に際してインターン扱いとなり、若い人たちに混じって研修まで受けたそうだ。この研修では、たまたまそれに参加していたHintonの教え子が「教授、こんなところでいったい何をしてるんですか?」と叫ぶまで、「あの年配の男性はいったいだれだ?」などとほかの参加者にいぶかしまれていた、などという逸話も出ている。

 なお、「ImageNet Challenge 2012」の論文をまとめたHintonと2人の教え子が起業したDNNresearchというベンチャーを翌年(2013年)にGoogleが買収していたのは既報の通り。

TPU(機械学習向け独自チップ)誕生の背景

 ところで、Googleが「Tensor Processing Unit」という独自のプロセッサを開発していることもよく知られており、CNETでも報じている。

 「Googleがハードウェアだけでなく、プロセッサまで自前で開発するようになったか」と、この話を初めて見聞きした時には少し意外に思った。そんなTPUをGoogleが開発することにした事情について、NYT Magazine記事には、Deanの次のようなわかりやすい説明がある。

 「将来Androidスマートフォンのユーザー全員が、1日に3分ずつ端末に話しかけるようになると仮定すると、それを処理するためには現在の2~3倍の計算処理能力がクラウド側で必要になる」

 つまり、新しいデータセンターをいくつもつくらなければならない、ということだろう。

 データセンターを1カ所新設・運営するのにどれくらいのコストがかかるのかといった点についての具体的な記述はないが、さすがのGoogleでもそう簡単にはOKといえない額の出費になるのだろう。そうした事態を避けるために、GoogleではかわりにTPUを開発し、それを搭載するサーバを各地にあるデータセンターで動かすことにした、との説明がある。

 この記事にはほかにもさまざまなティップスや関係者についての逸話などが出ているが、すでにだいぶ長くなってしまったので、これでひとまず打ち止めとしたい。Google翻訳の精度が飛躍的に向上して、こういう舌足らずな紹介の記事など不要になる日が1日も早く来るといいのだが。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]