お使いのブラウザは最新版ではありません。最新のブラウザでご覧ください。

CNET Japan ブログ

サーバにイノベーションのジレンマは起きているか(2)

2003/10/23 22:29
  • このエントリーをはてなブックマークに追加

前回のエントリに、Almost Free Internet Securityより興味深いトラックバックをいただいた。いわく、

自分としては,繰り返し書いているように,メインフレーム市場というのはプロダクトアウト的発想に縛られたいわば幻想であって,実際に市場に存在するのはミッションクリティカルというセグメントと考えていた.

「プロダクトとしてのメインフレームは無くなるだろうが,ミッションクリティカルというマーケットは無くならない」

つまり、メインフレームはプロダクトとしてはすでに存在していない、というのだ。

この考え方は面白い。が、惜しい。実はプロダクトというものは、売れ行きが右肩下がりになり、受注生産に移行し、新規の研究開発を止め、メンテナンスモードに入ってからが最も利益率が高い回収期になるという側面も持っているのだ。プロダクトのライフサイクルの中で、最も特徴的で注目すべきフェーズなのである。

メインフレームも遅かれ早かれ新規の研究開発が止まり(今だってメインフレーム専用の技術なんてもうほとんど残ってないのだ)、やがて新規販売を停止し、最終部品在庫の保守期限とともにひっそりと息を引き取る(そして、そこまで使い続けるユーザーもきっと存在する)。問題は、どのフェーズをもって「絶滅した」とするかだ。メインフレームの最後の一台がシャットダウンされるまでとすると、それこそ10年やそこらではない気が遠くなるほど先の話である。筆者はマーケッターなので、新規販売の停止が「絶滅」を象徴するひとつの区切りとなると考えている。

さて、本筋に戻ろう。

ハードウェア単体のコストパフォーマンスからは透けて見えないもの

ここまでの議論で述べたように、PCサーバやUNIXシステムの劇的な性能・信頼性の向上と価格低下はメインフレームにとって脅威ではあるが、とどめを刺すには至っていない。断っておくが、これは決してメインフレームがUNIXなどに比べて技術的に崇高・完璧という理由によるものではない。そういった神話は存在するが、筆者の見るところそれは共同幻想であり言い訳の材料に過ぎない。捨てることができないから、そう信じたいだけなのだ。

日経コンピュータのメインフレーム特集関連記事では、メインフレームを100とするとオープンシステムの性能はほぼ100に達し、信頼性も80以上まで追いついているという指摘がある。(日経BPは引用に厳しいようなのでURLをベタ張りする。> http://itpro.nikkeibp.co.jp/free/ITPro/OPINION/20031009/1/

どうだろう?筆者には、メインフレームを上限として相対値を求めるという前提がすでに先入観含みであると思えてならない。メインフレームの性能を100とするならばオープンシステムの性能はとっくに1000を超えている。こんな比較に何の意味があるのだろうか?

筆者は、サーバ単体の性能や信頼性といった指標はすでに供給過剰の状態にあるという仮説を立てている。つまり、平均的なユーザーが期待する水準を100とすると、性能面ではメインフレームが100ならオープンシステムは1000。信頼性ではメインフレームが200ならオープンシステムは150といった具合だ。いずれも100は超えている。

もちろん上記はハードウェア単体の議論であり、現実的には空論であることを承知の上だ。まずは前提となる土台を固めたかっただけで、ここで言いたかったことの本質はハードウェア単体の性能や信頼性は「すでに飽和している」という点である。そして、性能に限って言えば「すでに大きく逆転している」という点も、後に述べるように重要な意味を帯びてくる。

前出の「イノベーションのジレンマ」でクリステンセン教授は「破壊的イノベーションは必ず価値観の転換を伴う」と重大な指摘をしている。まさに問題はここにある。

オープンシステムを提供しているベンダーは、最近になっても「メインフレームクラスの99.999%の可用性」「複数OS同時稼動・動的CPU割当てによる論理パーティショニングを実装」などというオタク用語を売り文句にしているが、実はメインフレームと同じ価値観で勝負しようとしていないだろうか?相変わらずIT高度成長期の余韻を引きずった供給者側の論理でマーケティングを行い、とっくに一般顧客の需要を追い越してしまっていることに気付いていないのだろうか?すでに飽和した価値基準の線上で勝負をする限り、どこまでいってもメインフレームを打ち滅ぼすことはできないのではないか?

ハードウェア単体の「性能」や「信頼性」の議論ではない、何か別の次元で勝負が始まっているはずなのだ。価格性能比の向上それ自身ではなく、価格性能比の向上を基盤とした上位層で起きる「何か」が、その価値観の転換の役割を担うことになるはずだ。

システム構築で最も大きなコストは?

もう一つ別の切り口を与えてみよう。ハードウェア単体のコストパフォーマンスではなく、システムを構築するトータルコストという観点だ。

あるカスタムメイドの業務システムをオープンシステムで導入すると決めてプロジェクト化を考えた場合、考慮すべき費用は(初期投資に限れば)主に(1)ハードウェア費、(2)ソフトウェア費、(3)構築作業費(敢えて業務分析などのコンサルティング費もここに含める)の3種類である。これらの比率はシステムの性質によってかなりバラつきがある。

どうやら、このシステムの性質によってバラつきがある、というのがカラクリのようだ。オープンシステムが様々な用途に用いられるのに対して、メインフレームがターゲットとする用途は現在ではほぼ例外なく基幹業務システムである。つまり、多数の端末から明細データを入力したり照会したりといった単純で最も原始的な事務処理のことである。では、基幹業務システムを構築するためのコストの内訳はどうなっているだろうか?

10月16日のエントリで掲載したデータによると、PCサーバ単体の平均費用は100万円だ。ソフトウェアも基盤部分のオープンソース化が容赦なく進行中であり、単体費用はデフレ傾向にある。一方、残る項目である構築作業費のベースはエンジニアの人件費であり、この部分は「やり方」を根本的に変えない限りそうそう下げることはできない。仮に1人のエンジニアを1ヶ月稼動させる単価を100万円として、開発工数が100人月を下らない基幹業務システムの世界では、構築作業費は軽々と1億円を超える。実際、10億円を超えるプロジェクトも少なくない。このようなケースでは、ハードウェアが100万円であるか1,000万円であるかは、相対的に見れば1ケタ%そこそこの誤差程度しかインパクトしないのだ。現在のようなハードウェアの低価格化は、この規模のシステムに限って言えばすでに過剰な状態にあると言える。

このことから明らかなのは、メインフレームとオープンシステムでは、それぞれを取り巻くバリューネットワークのコスト体質は全体としては明らかに違うのだが、基幹業務システムのような大規模プロジェクトにフォーカスを絞って見てみると、顧客にデリバリされる最終コストという点ではそれほど違いがないのである。いずれもコスト面のボトルネックは同じで「エンジニアの人件費」なのだ。UNIXシステムでCPUを50個にしようと100個にしようと、ここではコスト的には大差ない。単にオーバースペックなだけだ。

そんな状況の中で、十分にこなれた単価で開発から保守・運用に至るまで要員を安定的に確保でき、かつ顧客を熟知し、枯れたテクノロジーを骨の髄まで知り尽くした旧世代のエンジニアと、やや単価が高く慢性的に不足気味で、業務を知らず客先常駐を嫌い、未成熟な新技術により品質が安定しない新世代エンジニアでは、仮に同じ人件費であってもプロジェクト進行の安全性という観点でメインフレームがチョイスされる可能性は現実的にあるということになる。

本当の性能、本当の信頼性

さて、いよいよ混迷を極めてきた。果たしてオープンシステムは、永遠にメインフレームを駆逐できないのだろうか。

ハードウェアの性能と信頼性は飽和したとすでに述べた。しかし、ユーザーが求める性能や信頼性といった価値は、もちろんハードウェアだけで達成されるものではない。その上で動くアプリケーションの運用という観点での性能であり信頼性なのだ。この切り口でいけば、平均的なユーザーが期待する水準を100とすると、性能面ではメインフレームが100ならオープンシステムは300。信頼性ではメインフレームが200ならオープンシステムはちょうど90ぐらい、といったところだろう。これがユーザーにとっての「本当の」性能であり信頼性だ。

この数字あそびにも、実は筆者なりの気持ちを強く込めてある。そのシナリオは、こうだ。成熟期にあるメインフレームでは、性能はユーザの期待をちょうど満足する水準で安定期にある。しかしそこに安住するうちに性能はオープンシステムに大きく水を空けられてしまったため、独自の強みを信頼性に求めた。その結果、いささかオーバースペックな信頼性を達成した、というものだ。一方、成長期にあるオープンシステムでは、性能はグングン伸びてすでにメインフレームを追い越した。しかし信頼性の点では、ハードウェア単体で見ればすでに過剰状態にもかかわらず、未成熟なアプリケーション技術とプロジェクト管理手法が足を引っ張ってなかなか追いつけない。この信頼性の欠如を補うべく、余りに余った性能をソフトウェアの基盤技術にジャブジャブ使っている。そんなストーリーではなかろうか。

さて、長くなったのでそろそろ本日のエントリのまとめに入ろう。

基幹業務システムというエリアにおけるメインフレームとオープンシステムの戦いにおいて、今最もデッドヒートを繰り広げている主戦場は「信頼性」であるらしい。それも、あと一歩というところだ。

ここで再び「イノベーションのジレンマ」を紐解いてみると、「価値観の変化は、まず性能需要から始まり、それが満足されると信頼性、利便性、価格へと段階を追って推移する」とある。この指摘はとても鋭い。

現在オープンシステムが優位性を発揮できるのは性能、利便性、価格である。そして最初のステップである性能需要を満足した今、メインフレームにとっての最後の砦は信頼性だ。これを乗り越えれば、すでに残り2ステップをクリアしているオープンシステムは本格的なクリティカルマスを迎え、爆発的な勢いで基幹業務システムを蹂躙していくであろうことは予想に難くない。

それにしても、難しいのは「信頼性」という言葉の定義だ。ここでいう信頼性とは単にミッションクリティカルだの可用性だのという数値で表せるような物理的な側面だけではない。もっともっと広い概念だ。むしろ、アプリケーションの完成度とか品質とかいう概念に近い。

次回は、その広義な意味での「信頼性」を担保すべくオープンシステムの世界で起きている様々な事柄について取り上げていく。その文脈の中から、いつ、どのようにしてオープンシステムが真の覇者となるかについてのヒントが見つかればと願う。

(続く)

※このエントリは CNET Japan ブロガーにより投稿されたものです。朝日インタラクティブ および CNET Japan 編集部の見解・意向を示すものではありません。
運営事務局に問題を報告

最新ブログエントリー

個人情報保護方針
利用規約
訂正
広告について
運営会社