なお、このHintonのほか、Yoshua Bengio(モントリオール大学)、それに最近Googleのクラウド関連の取り組みに参加することなったFei-Fei Li(スタンフォード大学、ImageNetの発起人)あたりの名前も頭に入れておくと、この分野に関するニュースを読む上で何かと役に立つかと思う。
さて、そのHintonがGoogle Brainに関わるようになったのは2012年――同プロジェクトの2年目のことで、これは「ImageNet Challenge 2012」で同氏らの存在が比較的広く知られるようになった数カ月前のこととある。
Hintonは当初3ヶ月の期間限定でBrainプロジェクトを手伝うことにしたが、当時のGoogleにはこういう大物を短期で雇った前例がなかったようで、Hintonは入社に際してインターン扱いとなり、若い人たちに混じって研修まで受けたそうだ。この研修では、たまたまそれに参加していたHintonの教え子が「教授、こんなところでいったい何をしてるんですか?」と叫ぶまで、「あの年配の男性はいったいだれだ?」などとほかの参加者にいぶかしまれていた、などという逸話も出ている。
なお、「ImageNet Challenge 2012」の論文をまとめたHintonと2人の教え子が起業したDNNresearchというベンチャーを翌年(2013年)にGoogleが買収していたのは既報の通り。
ところで、Googleが「Tensor Processing Unit」という独自のプロセッサを開発していることもよく知られており、CNETでも報じている。
「Googleがハードウェアだけでなく、プロセッサまで自前で開発するようになったか」と、この話を初めて見聞きした時には少し意外に思った。そんなTPUをGoogleが開発することにした事情について、NYT Magazine記事には、Deanの次のようなわかりやすい説明がある。
「将来Androidスマートフォンのユーザー全員が、1日に3分ずつ端末に話しかけるようになると仮定すると、それを処理するためには現在の2~3倍の計算処理能力がクラウド側で必要になる」
つまり、新しいデータセンターをいくつもつくらなければならない、ということだろう。
データセンターを1カ所新設・運営するのにどれくらいのコストがかかるのかといった点についての具体的な記述はないが、さすがのGoogleでもそう簡単にはOKといえない額の出費になるのだろう。そうした事態を避けるために、GoogleではかわりにTPUを開発し、それを搭載するサーバを各地にあるデータセンターで動かすことにした、との説明がある。
この記事にはほかにもさまざまなティップスや関係者についての逸話などが出ているが、すでにだいぶ長くなってしまったので、これでひとまず打ち止めとしたい。Google翻訳の精度が飛躍的に向上して、こういう舌足らずな紹介の記事など不要になる日が1日も早く来るといいのだが。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
OMO戦略や小売DXの実現へ
顧客満足度を高めるデータ活用5つの打ち手
企業や自治体、教育機関で再び注目を集める
身近なメタバース活用を実現する
パナソニックのV2H蓄電システムで創る
エコなのに快適な未来の住宅環境
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス