AventisのシニアサイエンティストJim Roehrは数年前まで、医薬品研究チームの仲間が発見した最新の研究成果を探し出すために何時間もかけ、貴重な時間を無駄にしていた。
実験で得られた結果などに関わるデータは毎年4000万ずつ増加し、Roehrらは手一杯の状態だった。Aventisでも研究プロセスと、のしかかる莫大な情報量をスリム化するための新技術にかなりの投資を行なわざるを得なかった。
「データが爆発的に増えていた」とRoehrはいう。彼は現在、ニュージャージー州にある支社の一角で、先端的な情報システムが自動的にすべての関連データを抽出し、ひとつの画面上にまとめて表示してくれる作業環境に身を置いている。「私たちはIT産業界の進歩に期待している」
期待だけでなく、出費しているのもまた彼らなのだ。フランスに拠点を置くAventisでは、出資の詳細は明らかにしていないが、昨年の研究開発費30億ドルのほとんどをIT関連に費やしたという。
同社のこうした方向転換は、バイオ関連分野に広がる昨今のトレンド、すなわち製薬企業や政府系研究センター、またその関連機関が、勢いづいて情報処理装置やサービスに投資を始めていることの表れといえる。調査会社のInternational Data Corp(IDC)は、バイオ分野の研究機関がテクノロジーの購買に投ずる金額が、2001年の120億ドルから2006年にはおよそ300億ドルまで跳ね上がると予測している。
これだけの高額な支出の背景には2つの主な要因がある。1つは、バイオ研究が急速に進展することを受けて、科学者がキノコ雲のように押し寄せてくる大量なデータの管理方法を探し求めているためだ。そして2つ目の理由が、製薬企業が自社開発した製品の特許有効期限が切れ、研究開発費が肥大する前に、新薬開発を迅速かつ効率的に遂行する必要に迫られているためである。
この傾向にさらに拍車をかけている別の要因がある。FDA(米国食品医薬品局)が業界全体に向けて、文書の提出・保管を電子化する規約の見直しを行っているのだ。これは製薬業界の2000年ガイドラインといわれているが、電子署名の使用などが新たに検討されている。
こうした要因が重なった結果、情報処理技術を使ってコンピュータ内でシミュレーションを行う新しい手法が誕生することになり、ペトリ皿などの器具を使った伝統的で面倒な実験アプローチに取って代わろうとしている。
「今後10年で製薬業界は、薬品まみれになる従来の方法から、データベースを主軸にした方向へと大きく変容を遂げるはずだ」とIDCのグループ副社長で生命科学分野のスペシャリストであるDebra Goldfarbは指摘する。
ゲノムとコンピュータの密接な関係
製薬企業は長い間、実験データの保存や解析、そしてFDAから義務付けられた薬品に関する複雑な承認プロセスの処理のためにコンピュータのハードやソフトが手放せなかった。しかし、コンピュータ処理に対するニーズは、2000年以降急ピッチで進むヒトゲノムの完全解読に向けた動き以降、劇的に変化した。
「研究が加速した結果、バイオ医学研究で生み出される情報量はいまや、15カ月ごとに2倍に膨れ上がっている」。こう述べるのは、NIH(米国国立衛生研究所)の国立研究資源センター、バイオ医学研究部門長のMichael Marron博士だ。タンパク質の性質や役割を特定するプロテオミクス研究を行うあるラボでは、1年間で12テラバイトのデータが生成されるという。この数字は、米国議会図書館に収蔵されるすべての情報にほぼ匹敵する量だ。
「データの増加率は、ムーアの法則よりも早い」とMarron博士は話す。ムーアの法則とは、Intelの共同設立者Gordon Mooreが見出したコンピュータチップ内のトランジスタ数は2年ごとに倍増している、というものである。「我々が今日収集している情報はもはや人間の手には終えない規模になっている。これを扱えるのは機械しかない」
NIHは昨年度の予算236億ドルのうち1〜2%程度をIT関連費に充てたが、Marronに言わせるとその金額は、NIHの研究員が増大するデータをきちんと読み解くためには少なすぎると指摘する。「我々は研究アプローチをもっと合理的にしなければならないと思っている。それにともないITの担う役割が重視されてきている。このことはバイオ医学研究におけるあらゆる面についていえる」
ここ最近の科学の進展以前でさえも、ITは医薬品開発においてすでに不可欠な存在だった。90年代の半ばに、ロボットスクリーニング装置を使い、インデックスカード大のプレート上の小さなくぼみに入れられた96種の成分テストが可能だったことをAventisのRoehrは覚えている。それ以降装置の小型化がさらに進み、同様の大きさのプレート上に1536もの微小な試験管をぎっしり並べることさえ可能になった。
「コンピュータは処理を高速化するよりもむしろ、データベースの情報をいかに有効活用するかが課題になっている」とRoehrは話す。
製薬企業が情報システムについて議論を重ねる理由はほかにもある。そのひとつが、次世代の稼ぎ頭となる新薬開発の必要性だ。投資会社のLehman Brothersとコンサルティング会社のMcKinsey & Co.による2年間の共同研究の結果、多くの医薬品の特許有効期間が2011年までに切れることが分かった。このことが、独自の治療法を確立しようと画策する製薬企業同士の競争に発展している。
そのため、研究開発費の高騰も目立ってきた。ひとつの新薬に投下される研究開発費は、候補となる新規物質が失敗に終わった場合のコストも含めると、1995年の7億ドルから、2001年の8億ドルに上昇。2005年にはその数字が16億ドルに膨らむと見られている。
このコスト上昇は、効率が低下した結果でもある。Lehman Brothersの証券アナリストAnthony Butlerは、創薬の取り組みが次第に生産性を下げており、その理由のひとつとして製薬企業がゲノム研究によって開拓された新領域への対応に追われていることがあるとしている。ある病気を治療するためできる全く新しい医薬品が市場に出るのは、候補となる38薬品のうちたった1つなのだという。既存の薬で成功した方法をまねた治療薬の場合は、7つに1つの確率だというから比較にならない、とButlerは話す。
製薬企業にとって、効率を改善し、仕事をはかどらせるための情報技術があれば、それにかかる金額の問題は二の次だ、とButlerは述べる。「医薬品メーカーは潤沢な資金がある。まるで造幣局のようだ」
製薬産業に群がるITベンダー
製薬業界のパイ争奪戦に参入したテクノロジー企業の顔ぶれには、IBM、Oracle、Intel、Hewlett-Packard、Dell Computerといった面々が並ぶ。
今年初め、IBMは2つのバイオ関連製品を発表した。これは、ネットワークにつながれた個々のPCの処理リソースを有効利用するグリッドコンピューティングを活用したものだ。同社はさらに、天然痘治療法研究のためにグリッドコンピューティング技術を活用する取り組みにも参加している。天然痘調査グリッドプロジェクトは、200万台以上のコンピュータの余剰処理能力を天然痘治療薬の開発に役立てるという計画だ。
Intelはバイオ研究で生ずる大量のデータを取り扱うため、コンピュータアーキテクチャを利用した実験を行っている。「データ管理の問題を解決するソリューションの開発に向けて、来年度は積極的に取り組んでいく」と同社の生命科学グループを統括するTim Mattsonは意気込む。
Intelがバイオ分野に注力するのは医薬品研究以上のものが得られると確信しているからだ。つまり、生命科学の膨大なデータを読み解き、病気に対する耐性改善や遺伝子組み換え食品、毒性のある老廃物をきれいにするデザイナーバクテリアの開発などを支援したいと考えている。
その一方で、こうした大手テクノロジー企業は、バイオ関連市場に向けた製品を販売する中小企業を牽引している。いつかの企業は、技術を販売すると同時に自社で医薬品開発業務を展開している。
サンディエゴに拠点を置くStructural Bioinformaticsは、コンピュータのモデリング技術と研究所における化学的手法を組み合わせて、数千のタンパク質の構造を3D化したデータベースを、情報管理ソフトとともに販売している。しかし、同社ではさらなる収益性を見込んで、新薬の開発に着目しているとCEOのEdward Maggioは述べている。
Structural Bioinformaticsでは、パターン認識技術で医学的データに隠された情報を探索するアルゴリズムの開発を進めている。グルコースや脂質レベルの測定など49のテストを組み合わせて行うことで、個々のテスト結果が正常値の範囲内に収まった場合でも病気の予測が可能になるはずだと、同社では考えている。
Maggioは、同様の手法で乳がんの再発を予測できると話している。この方法では、がん細胞のなかの2万4000個の遺伝子を分析するなどして、93%の確率で再発度がわかるのだという。これまでの科学的な考え方、つまり少数の要因に的を絞って研究するアプローチとは全く異なるものだ。
「この種のデータを本当に理解できるのはコンピュータの頭脳だけだ」とMaggioは話す。同社では、同じくサンディエゴの医薬品研究企業であるGeneFormaticsと合併する考えも示している。
SF映画の実現となるか
バイオテクノロジーとコンピュータ技術の融合で、単なる驚き以上の革新的な出来事が起こるかもしれない。
米国科学財団(National Science Foundation)と商務省が昨年発表した報告によれば、21世紀は人類の英知が地球規模で集約されていき、寿命は100歳を超え、コンピュータはネットワークを介して我々の性格を情報として伝えることが可能になると記されている。分子の大きさ程度の「ナノボット」が生まれることによって、極小マシンが人体の中を動き回り、がん細胞を見つけて破壊するといったことも可能となるかもしれない。
しかし、こうした未来像は、データ管理の問題が解決されない限り、幻想のままかも知れないのだ。
「本当にペタバイト規模のデータが扱えるようになるのか」とIntelのMattsonは首をかしげている。「まるで月を打ち落とすといった、無茶な議論と似たり寄ったりだ」
この問いに対する答えは、医薬品開発とは関係のない経済などの外的要因に左右されると見られている。業界全体で株価低迷状態が続けば、設備投資への予算が削られ、バイオ企業や製薬会社の合併などにより支出は一層緊縮されるだろう。
さらに、各企業は世間一般からのバイオ技術の進展に対する風当たりにも対処せねばならない。クローン技術と遺伝子組み換え食品に対する議論は、遺伝子操作への強い抵抗感を物語っている。
ハイテク産業界でさえ、この問題についての意見は分かれている。Sun Microsystemsの主任研究員Bill Joyが数年前に発表して論議を巻き起こしたエッセイの中で、彼は遺伝子、ナノテク、ロボット技術が引き起こす様々な危険性に警鐘を鳴らした。彼の結論は、これ以上の研究開発はあまりにもリスキーだというものだ。
Mattsonは最初、情報処理インフラはほとんどの倫理的問題を回避できると述べていたが、Joyのエッセイをめぐる議論について触れると、持論を引っ込め訂正した。
Mattsonはいう。「慎重にならなければならない。進化論を変えてしまうような話だからね」
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス