マイクロソフトのマンディ氏、ゲイツ氏後の展望 - (page 2)

文:Ina Fried(CNET News.com) 翻訳校正:編集部 2007年05月30日 08時00分

 このように、われわれが狙っているのは、IDやストレージやプレゼンスなどの機能をクラウドベースのプラットフォームの一部にすることです。そして実際、プログラムを書いている人たちは、それが実行される場所とは関係なく、ローカルマシンの機能でも、クラウドベースのサービスでも呼び出すことが出来るようになります。

――示されたことの1つに、新興成長市場では、より多くの人が技術を得るため答えの1つは、携帯電話をローエンドのコンピュータとして使い、テレビに繋いだり、キーボードを繋いだりすることだということがありました。このシナリオの実現可能性は高いのですか。

 これは、比較的近い将来に市場で起こることの1つでしょう。これは、スマートフォンからはさして大きな飛躍ではありません。大きな問題は低コスト化のために最適化を行うことです。これらのものを使う人たちは、企業向けのビジネスアプリケーションを統合した製品は求めていないからです。もっとはるかに簡素な環境が求められています。ですから重要なのは、スマートフォンの技術をより一般の消費者向けにし、より経済的にそれらを他のデバイスと繋げられるようにすることです。

 しかし、それらの市場の多くで、電話がユーザーの最初のコンピュータとなるだろうことは信じています。電話がもっと安い値段から入手可能であり、これまでよりもますます便利になり、ほとんどあらゆる人に魅力あるものになってきていますから、それはむしろ当然の結果です。彼らはPCから始めるのではなく、電話とテレビを使うでしょう。まずは電話から始め、それからテレビを使い、個人的にPCを所有するのはその後になるでしょうね。

 共用アクセスは、それらの新興中産階級以下の人たちの多くにとっては、従来の完全なPC環境にアクセスする方法としては主要な手段になるでしょう。その理由は単にコストで、これは最近の中進国の場合よりも大きな問題になるでしょう。

 ただ、完全なVistaを実行できるコンピュータのコストを下げるためにも多くの努力が払われており、この傾向が続かないと信じる理由もありません。

――長い間に渡って、CPUのクロック数は速くなってきており、コンピュータ産業はそれを始めから期待するようになってきました。それがシステムの設計にも、ソフトウェアの設計にも反映されています。突然、そのペースは本当に遅くなり、むしろコアの数が増えていますが、ソフトウェア側は必ずしもこれにどう対処するか分かっていません。

 その通りです。われわれは、次の動きを模索しており、パーソナルコンピューティングのプログラミングの生態系全体が、分散化した、並列度が高い、コンピューティングパワー全部を活用できる大規模アプリケーションを、信頼できる形で作れる水準に至る方法を見つけなくてはなりません。おそらくこれが、向こう20年から30年の間に達成しなければならないもっとも破壊的なイノベーションでしょう。

――その問題を解くには、明らかに多くの異なるアプローチが必要となりますね。最初に試みられるのはどういうことになるでしょうか。

 おそらく、コアの数の増加には驚かされることになると思います。そして、1つの半導体に乗る特別な機能を持つハードウェアコア数が増えると、それを1つのシステムにすることもだんだん難しくなるでしょう。アプリケーションの本質について、考え方が進化する必要が出てくると思いますね。もし私が現在のものよりも100倍速いWordやExcelやPowerPointが作れると言ったら、すごいことだと思いますか。おそらく思わないでしょう。もし、Wordが完全な口述筆記が出来るようになったと言ったら、面白いと思いますか。思うかも知れませんね。この計算能力があれば、従来のアプリケーションにもこのような質的な変化が可能になるでしょうが、それはこの計算能力を生かすことの出来るコードが書ければの話です。

――話された話題の1つに、スーパーコンピューター業界がこの問題に長い間取り組んでいるということがありました。Microsoftは最近、Windowsでこの(クラスタコンピューティングの)タスクを扱えるようにしました。Microsoftがこの市場に入った理由には、コンピュータ産業全体が、今日のクラスタコンピューティングのようなものになっていくという見通しがあったからですか。

 理由の一部はそうです。私は高性能コンピューティングの分野への参入を提唱した1人です。私が継承したものも、その分野のものです。私はスーパーコンピューター業界の最近10年から15年の進化と、デスクトップで現在起こっていることの間には強い類似性があると考えています。

 全てのデスクトップは高性能コンピューティングの能力を持ち、あるいは少なくともアーキテクチャ的には同水準に来ていますので、高性能コンピューティングの取り組みから得られる教訓はあると思います。

 コアの数が非常に多くなってきた場合の最大の問題の1つは、メモリシステムのアーキテクチャを変える必要があるということです。従来のPCのバス型のメモリシステムは、多くのプロセッサコアに十分応えることは出来ません。これがもう1つの課題に、あるいは一群の課題に繋がります。

――非常に多くの数のコアについてですが、数年後にはどういうタイプのシステムが出てきていると思いますか。

 今の進歩の方向を見ると、ここ数年間でコアは1つから2つになり、今では4つになろうとしています。コアの数の増加が、半導体の増加曲線と一致すると考えない理由は見あたりません。

 それを妨げるものがあるとすれば、「どんなアーキテクチャか」という問題です。それらが完全に分離されていて、全てのコアは別のもので、入出力のためのピンを別々に持っていれば、ただその増加を続けていって構いません。しかし、実際にはコアの数よりも先に他の物理的な限界があります。

 どうやってそれらのコアとやりとりするかを考えなくてはなりません。これは、ピンの入出力が物理的に異なっているということです。チップへの電源供給と冷却方法も、課題であり続けるでしょう。しかし、私は次の10年については、コアの数は大きいものでは50くらいになってもおかしくないと思います。

――話された話題の1つに、それだけのコアがあれば、PCはユーザーが指定していないこともやるだけの余裕が出てくるということがありました。

 そうです。パワーが有り余っていますから。これは氷山の一角に過ぎませんが、Vistaのスーパーフェッチでユーザーが次に起動する可能性のあるアプリケーションの読み込みを速くするため、われわれはユーザの振る舞いと、1日の中での時間帯と、今何を実行しており、どれだけのリソースが残っているかということに関するモデルを開発しました。しかし、次にユーザーが何をしそうかということを処理するには、マシンの待ち時間を使っており、他の待ち時間の長いタスクの反応に影響がないようにしています。この種類のことは劇的に多くなるかもしれないと思っています。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]