〈 ネット・ポリティックス2001〜2002 ─ 戦うインターネット・コミュニティ ─ 〉第9回
バイオIT
―生命の暗号解読―
土屋大洋(GLOCOM主任研究員/ジョージ・ワシントン大学サイバースペース政策研究所訪問研究員)
バイオIT会議
3月半ば、アメリカ東海岸のボストンで「バイオITワールド」と題する会議が開かれた*1。バイオロジー(生物学)の中でも特に遺伝子生物学の分野ではすさまじい勢いで情報技術の利用が進んでおり、バイオの研究者とIT企業とのマッチングを図ろうという趣旨である。
ボストン見物をかねて、興味本位でこの会議を聞きに行ったのだが、MIT(マサチューセッツ工科大学)ホワイトヘッド研究所のエリック・ランダー博士のキーノート・スピーチを聞いているうちに、これは暗号解読と同じではないかと思い始めた。
そういえばサイモン・シンの『暗号解読―ロゼッタストーンから量子暗号まで―』には遺伝子(DNA)解析の話が出てくる*2。本を読みながら、「なぜDNAの話が暗号の本に出てくるのか」と思っていたが、遺伝子解析と暗号解読はやっていることが基本的に同じなのだ。つまり、暗号解読とはメッセージを復号するパターン(鍵)を探り出し、隠されたメッセージを見つけだすことである。遺伝子研究とは、生命誕生のメカニズムという暗号を復号するための鍵である遺伝子を分析することに他ならない。そして、両方とも膨大な計算が必要であり、コンピュータが不可欠なのである。普通の暗号メッセージは、誰かが誰かにあてた内容を第三者にはわからないようにしたものだが、遺伝子という暗号は、神が人類に送った暗号メッセージといえるかもしれない。
今回はやや脱線して、遺伝子研究とITの接点について報告してみたい。
遺伝子研究の系譜
遺伝子研究は、学問の中でもきわめて新しい研究分野である。古代の人々が最初にこの問題に関心を持ったのは、牧畜を通じてらしい。つまり、良い毛並みや良い肉を持つ家畜、たくさん卵を産む鶏などを選別することから始まったのである。
しかし、遺伝のメカニズムに関しては、1865年にメンデルが発表したエンドウの交雑実験の論文まで科学的成果は挙がらなかった。そのメンデルの論文も同時代の学者からは評価されず、1900年にメンデルの法則が再発見されるまで、その意義が認められることはなかった。その後1926年に、トーマス・モーガンが、遺伝子は染色体上に線状に配列されているということを遺伝子の組換え実験で証明した。1900年に本格的なバイオ研究がスタートしてから、まだ100年しか経っていないのである。
ヒトには約60兆個の細胞があり、遺伝情報は個々の細胞の核の中にある染色体に保存されている。ヒトには46本の染色体があり、この46本の染色体のことをゲノム(英語ではジノムと発音)と呼ぶ。
染色体をさらに細かく見ると、染色体はDNA(デオキシリボ核酸)でできている。そして、そのDNAは二重らせん構造をしていることが、1953年のワトソンとクリックの研究により明らかになった。DNAを構成する塩基は4種類あり、その塩基の並びが遺伝情報を伝える暗号といわれている。その並び方を示した、いわゆる「遺伝暗号(genetic code)」はすでにすべて解読され、64通りあることがわかっている。しかし、その塩基の並びが、どのように生命維持に必要なアミノ酸とタンパク質を生成させるのかという「生命の暗号」はいまだ解かれていない。
ランダー博士によれば、遺伝子研究のこれまでの100年は、おおざっぱに言って四つの時期に分けられる。最初の25年は遺伝子の存在についての研究が行われ、第二の25年は分子レベルでの研究が行われ、どうやって遺伝子に情報が埋め込まれているのかが分析された。第三の25年ではDNAにどうやって遺伝情報が埋め込まれ、コード(暗号)化されているかが研究された、ということになる。
第四の25年が始まる1970年代までの遺伝子研究は個人ベースの研究だった。このころの遺伝子研究は手作業で行われており、ランダー博士は当時を回想し、この手作業が永遠に続くのではないかと思ったという。しかし、1980年代になると、コンピュータとそれをつなぐネットワークがバイオ研究の分野に入り込み、事態が急変することになった。コンピュータによって作業が自動化されるとともに、ネットワークを活用した研究が進められるようになったのである。世間がインターネットに気づくずっと前から、バイオ研究者たちはネットワークに親しんでいたことになる。そして、1990年代になると、ネットワークをフル活用した研究チームが組織されるようになり、情報技術はバイオ研究に不可欠なものとなった。
バイオ研究とコンピュータ
バイオ研究におけるコンピュータとネットワークの利用法は、おおざっぱに言って二つある。第一に、データ処理である。ゲノムの解析には、まずマッピングと呼ばれる遺伝子の地図作りが行われる。どの遺伝子が染色体のどの部分に位置するかを明らかにするのである。ただし、染色体の中のDNAは、すべてが遺伝情報を持っているわけではない。DNAには、生きるうえで必要なすべてのタンパク質のアミノ酸配列を指令する情報が書き込まれているが、それ以外にも、何の役割をしているのかわからない部分があるという。DNAの中には30億の塩基対があり、そのうち5%程度が生命維持に必要なタンパク質の生成にかかわっているとされる*3。
地図ができたら、今度はDNAを小さな断片に切断する。そして、ばらばらにしたDNAを複製し、ゲル電気泳動という方法で、断片のサイズごとに分けていく。分けられた断片を、レーザーを利用した自動シークエンサーという装置を使ってコンピュータに読み込み、解析のためのロー・データとする。
ここで出てくるデータの量が膨大なものとなる。ロー・データを保存しておくだけでも、コンピュータの巨大なディスク・スペースが必要になる。さらに膨大なデータを解析するには高速のコンピュータが必要になり、解析の結果出てきたデータをまた保存しておくディスクが必要になる。
バイオ研究における第二の情報技術利用法は、データや分析結果を、ネットワークを介してやり取りすることである。急速に進むバイオ研究の世界ではスピードが重要だ。コンピュータの性能が低いために解析に時間がかかってしまえば、後れをとることになりかねない。ここで必要なコンピュータは家庭で使うパソコン程度ではとても間に合わない。仮に自分の所属する機関のコンピュータの性能がそれほど高くなければ、ネットワークを介して他機関のコンピュータを利用することも行われている。そのためには、大量のデータを短時間にやり取りできるブロードバンドが当然必要になる。
つまり、バイオ関連研究施設は、膨大な量のデータを貯蔵するディスク・ストレージと、それを解析する高性能コンピュータと、それをやり取りする超ブロードバンドを必要とする。ある会社では9カ月ごとにITインフラが倍増しており、別の会社は毎月18テラビットのデータを産出、あるプロジェクトは年間10ペタバイト以上の生データを処理しているという。すでに100テラバイトのオンライン・データが利用可能になっているという指摘もある。ヒトゲノムの解析を目指すヒトゲノム計画のファイルを全部保存するには300テラバイト必要だという。ITなしで今日のライフ・サイエンスは成り立たない。
以上のような状況を反映して、IT関連の調査会社であるIDCのデボラ S. ゴールドファーブは、製薬産業が危機に瀕しているという。なぜなら製薬会社は、お金と技術と情報がなければ生き残ることができず、甚大なプレッシャーのかかるビジネス・モデルを追及せざるを得なくなってきているからである。生き残るのは、一つの分野において最も早く成功した一社だけだという。
IT産業にとっては、バイオ産業はドル箱になるだろう。IDCでは、バイオ関連ITは2006年までに380億ドルのマーケットになると予測している*4。高性能コンピュータを必要とするのは、これまでは軍事部門、核物理研究、宇宙研究であった。しかし、現在最もIT産業を牽引しているのはバイオ研究なのである。
バイオ産業が必要とするIT技術には以下のようなものがある*5。
- 高性能コンピューティング
- 分散コンピューティング
- データ分析・統合ツール
- データ管理・保存
- インターネット・サーバおよびサービス
- 画像化およびシミュレーション・ツール
- ナレッジ・マネジメントおよびコラボレーション・ソフトウェア
- データ・セキュリティおよびプライバシー
- コンサルティングおよびプロフェッショナル・サービス
- ブロードバンド・ネットワーク・インフラ
「バイオインフォマティクス」という言葉は、バイオ研究がいつの間にか情報産業に強く依存するようになったことを示している。もはや生物学は、研究所に閉じこもった生物学者たちの領域ではなく、さまざまな組織の協働の上に成り立つネットワーク化された研究分野なのである*6。
バイオ・ビジネスの可能性と問題
ITによってエンパワーされたバイオ研究の成果が現れたのが、ヒトゲノムの解析であった。当初、日米欧の政府機関が出資した国際ヒトゲノム計画では、ヒトゲノムの解析完了は2003年ごろと予測していた。しかし、アメリカのゲノム研究の最高機関であるNIH(National Institutes of Health)の研究員だったクレイグ・ベンターが、1998年に突然セレラ・ジェノミクスという会社を設立し、ヒトゲノム解析競争に参入。セレラ社は1999年9月から解析を開始し、2000年4月には、ヒトゲノムの読み取りをほぼ終了したと発表した。6月、セレラ社のベンター社長と国際ヒトゲノム計画のフランシス・コリンズ博士がホワイトハウスで同時に記者会見して、それぞれ解析完了を発表した。翌2001年2月、両者の解析結果は、異なる科学誌に論文という形で発表された。
セレラ社のねらいは、遺伝子特許にあるといわれる。特定の塩基配列を解析し、どういうタンパク質をどのように生み出すか、などの機能が明らかにされれば、「医学上有用性あり」という判断で「発明」、つまり特許と認定される。ただし、公的な機関や研究者が遺伝子を発見した場合、これまでは学術上の成果として公開されてきた。そのため、遺伝子情報は、ほとんど特許申請されてこなかったのだが*7、セレラ社という民間企業が特許申請を積極的に行ったことで、事態が変わってきてしまった。特許申請した遺伝子情報が製薬に使われることになれば、その使用料で利益をあげようというのである。
すでに遺伝子の解析結果を応用した遺伝子治療は行われるようになっている。徐々に特定の病気に関与する遺伝子が見つかってきており、ダウン症やガン、そううつ病などの治療も可能になるのではないかと期待されている。
しかし、遺伝子研究の成果がすべての人に恩恵をもたらすかどうかはわからない。ケニアのナイロビにある国際家畜研究所(ILRI)で、家畜の病気に関する遺伝子研究をしている山家又祐博士は、ビジネスとしての遺伝子研究が抱える問題を指摘する。つまり、マラリアなど途上国で多い病気を研究して治療薬を作っても、途上国の人々は高い薬を買うことはできず、研究者の知的欲求は別として、経済的なインセンティブが働かない可能性があるというのである。先進国に多い病気、たとえばガンに関する遺伝子の研究はどんどん進んでも、途上国の人々の生活レベル向上につながるような研究は進まないとすれば、遺伝子研究の恩恵を被ることができる人は限られてしまうだろう。
人間の話だけではない。山家博士が従事する東海岸熱(east coast fever)という牛の病気の研究は、アフリカの人々の生活を支える牛の病気を減らすことによって、人々の生活改善に貢献するはずである。しかし、この病気を克服するための治療薬があまりにも高価であれば、アフリカの人々がそれを使うことはできないだろう。国際家畜研究所はこうした現状を打破しようとしているものの、遺伝子ビジネスの将来はいまだ不透明といえるだろう。遺伝子研究がコンピュータを多用し、莫大な費用が必要になるとしたら、途上国はますます不利になりかねない。
遺伝子レジーム
ビジネス先行のバイオ論議に対し、ジョンズ・ホプキンス大学教授で、ブッシュ政権のバイオ倫理評議会のメンバーでもあるフランシス・フクヤマは、「遺伝子レジーム」の形成が必要なのではないかと問題提起している*8。レジームとは、辞書では「政体、体制、制度」といった意味だが、国際政治学の用語では、「特定の問題領域においてアクターの期待を収斂させる規範、原理、ルール、政策決定手続きのセット」とされている*9。
フクヤマはある程度、バイオの分野に政府の規制が必要だと考えているようだ。バイオ技術に関する見方は、科学の発達を妨げることなく自由にさせるべきという意見と、倫理上、宗教上の懸念から強く規制すべきという意見に分かれている。バイオ技術は、核技術ほど明白に危険で政府のコントロールを必要とするものでもなく、かといって情報技術ほど政府のコントロールがいらないものでもない。両者の中間に位置するのがバイオ技術だという。
したがって、強い政府規制は必要ではないかもしれないが、ある程度の規制は必要であり、それも国際的に行われなくてはいけない。ところが、フクヤマは、有効な規制というのは、国際的なレベルから始まることはないという。コンセンサスの構築には、レトリックや説得、交渉、経済的・政治的梃入れなどさまざまな外交ツールが用いられるが、結局のところは、各国の取り組みの調整の結果生まれてくる。アメリカの炭疽菌事件を見ても、バイオ技術に監視の目を入れていくことは必要であり、現在のところバイオ産業を管轄しているWTO(世界貿易機関)だけでは不十分であるという。
インターネット・コミュニティの役割
インターネット・コミュニティは、直接は遺伝子レジームと関係ない。インターネット・ガバナンスを担うIETF(Internet Engineering Task Force)も、ICANN(International Corporation for Assigned Names and Numbers)も、W3C(World Wide Web Consortium)も、ISOC(Internet Society)も、バイオ技術を管轄とはしていない。しかし、インターネット・ユーザー/開発者の集合体としての、広い意味でのインターネット/コミュニティは、二つの点で遺伝子レジーム、あるいは遺伝子研究・ビジネスのガバナンスに貢献できるのではないかと思う。
第一の点は、これまで述べてきたように情報技術というツールの提供である。特に今注目されているのは、分散コンピューティングであろう。分散コンピューティングの例としてよく紹介されるのは、UCバークレーが始めた SETI@HOME(http://setiathome.berkeley.edu)というプロジェクトである。このプロジェクトではまずユーザーに、専用スクリーン・セーバーをダウンロードしてもらう。ユーザーのパソコンが使われていない間に、スクリーン・セーバーが動き出し、ネットワーク上でデータをやり取りしながら、地球外生命体からのメッセージを見つけるのに必要な、膨大な計算量の一部を担ってもらうのである。この分散コンピューティングの手法は、暗号解読にも応用されている。世界中のコンピュータを一種の並列コンピュータに見立てて、スーパー・コンピュータ並みのパフォーマンスを獲得し、難攻不落といわれた暗号を解いてしまうのである。やはり膨大な計算量が必要なバイオ研究にもこの技術はすでに応用され始めている*10。
第二の点は、インターネット・コミュニティがネット・ガバナンス構築から得られたノウハウと教訓を共有することだろう。インターネットもまた、その存在感を増すにつれ、政府規制の必要性が繰り返し主張されてきた。それをインターネット・コミュニティは透明性と参加の原則に基づいて克服してきた。ICANNにおいては政府の参加を拡大させる提案が行われているが、インターネット・ガバナンスの原則はセルフ・ガバナンスである*11。政府がより大きな役割を担うレジームに任せ、国際条約を長い時間をかけて批准させ、新しい国際ゲノム機関のようなものができるのを待っている暇はないのではないだろうか。
バイオ研究の変化は、情報技術が及ぼす社会変化の中でも重要なものであろう。情報技術があまり目に見えないところでわれわれの生活を変えていっているという例は、実は他にももっとたくさんあるのではないだろうか。そうした変化の波に途上国がついていけるかどうかという点も、今後の国際政治イシューとなる。これまではツールとしての情報技術に関するデジタル・デバイドが論じられてきたが、デジタル・デバイドが他の分野の格差にも波及していく例としてバイオITはとらえられるだろう。