スイスの研究所、CERN(欧州合同素粒子原子核研究機構)では、宇宙のビッグバン理論の実験用粒子アクセラレータ、Large Hadron Collider(LHC)を構築中だ。LHCにより、ビッグバン時に存在したとされるHiggs bosons(ヒッグス粒子)という素粒子を再生するか、あるいは素粒子が存在しなかったことを証明できる。
まず必要となるのは、この素粒子の衝突実験から生成される膨大な量のデータを扱えるコンピュータネットワークの構築だ。米IBMの研究者であるJai Menonは、実験開始後に生成されるデータは年間約5ペタバイト(500万ギガバイト)と推計している。
CERNの研究者たちは、2007年に予定されている実験をにらみ、グリッド・コンピューティング・ネットワークのOpenlabを構築した。グリッドコンピューティングは、多数のパソコンや中規模サーバを同一のネットワークに集約し、1つの仮想スパコンとして機能させる。
CERNのOpenlab開発担当マネージャーのFrancois Greyによると、LHCは10年間稼動することになるという。つまり、2007年時点の最新技術だけでなく、このプロジェクトが終了するまでどのアーキテクチャが存続するかを予測する必要があるのだ。さらに、Greyによるとコンピューティングネットワークは2005年までに構築しなくてはならないという。科学者たちは、LHCの稼動前にすべてのシミュレーションソフトウェアのチェックを開始する必要があるためだ。
しかし、いくらCERNが巨額の予算を抱えていても、ゼロからコンピューティングネットワークを構築することはできない。そのため、CERNはハイテク企業の協力を求めている。まずパートナーとして提携したのは、Hewlett-Packard(HP)、Intel、Enterasys Networksだ。HPとIntelはItanium 2ベースのシステムを、Enterasysは10Gbpsのネットワーキング装置を提供する。加えてIBMが、米国時間4月2日に実験プロジェクトへの参加を発表した。IBMはxSeriesサーバ6台と20テラバイトのストレージ、そしてストレージ管理ソフトウェアのStorage Tankを提供する。
この記事は海外CNET Networks発のニュースをCNET Japanが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス