ディジタル革命の考古学のためのノート(2)
池田信夫(主任研究員)
インターネットによって生じている変化を「産業革命以来」の変化だというのは、もはや常套句だが、それがどういう意味で産業革命と比せられるのかは、必ずしも明らかではない。もちろん絶対量において今日の情報技術の影響が産業革命よりもはるかに広く大きいことは明らかだが、変化率で見ると両者はさほどかわらない、というのがいくつかの実証研究の結果である。もっとも、産業革命は、「革命」という言葉が想起させるほど急激なものではなく、数百年にわたって散発的に生じたものだから、村上泰亮のように「産業化」というほうが正確だろう。
これに比べると、今日のディジタル革命の特徴は、まさに革命的なスピードで変化が生じていることである。この原因は、かつての産業化の過程がエネルギーの生産の効率化であったのに対して、今回の変化が情報の生産の効率化だという点に求められよう。しかし、かつての変化の本質がヘーゲルやマルクスなどの同時代人によってきわめて深いレベルで的確に把握されたのに対して、現在起こっている変化の本質を認識論的な問題も含めて論じた研究がほとんど見当たらないのは、変化があまりにも激しすぎるからだろう。
この試論は、現在の変化を認識論的なレベルからとらえなおすことによって、その歴史的な位置づけを明らかにし、社会や産業への影響を考える一つの素材にしようというものである。まだ暫定的なメモにすぎないので、厳密な論証や文献の参照などは省くが、ご批判をいただいて後日ちゃんとした論文にしたいと考えている。
1.認知と脳
観測問題
コンピュータの世界を「ディジタル」という言葉で形容し、それになじめない人々のことを「アナログ人間」というが、実はわれわれの脳も最も基本的なレベルではディジタル処理をしている。これは、20世紀の物理学で最大の難問とされた量子力学の「観測問題」をめぐる論争の中で最近わかってきたことである。観測問題とは、電子などの素粒子のふるまいが観測されている時とそうでない時で異なるという不思議な現象で、アインシュタインやシュレーディンガー以来、多くの物理学者を悩ませてきた問題である。
たとえば電子を二つの細いスリットを通してスクリーンにぶつける実験を考えよう。多くの電子をぶつけると、スリットとスリットの間に縞模様ができる。これは電子が波であるため、それが干渉を起こすのだと考えられるが、ビームを絞って電子を1個ずつぶつけても、やはり干渉が起こる(図)。これは1個の電子が同時に二つのスリットを通っているのかもしれないから、スリットの裏に計測器をつけて検知すると、どちらか一つしか通っていないことがわかる。ここで奇妙なのは、どちらを通ったかを観測すると、この縞模様が消えてしまうことだ。つまり電子は普通は波としてふるまうが、人間に見られると粒子としてふるまうのである!
このように人間が観測しないかぎり電子の位置が決まらないのは、観測の誤差ではなく、「不確定性原理」として知られる量子力学の基本法則である。なぜこういうことが起こるのかは、いまだにわからないが、この反例は一つも見つかっていない。逆に、これはシュレーディンガーの波動方程式という量子力学の基本方程式の論理的な帰結なのである。シュレーディンガー方程式では、素粒子の座標は(虚数部を含む)複素数で与えられるため、通常のユークリッド空間には位置づけることができない。電子は波動方程式であらわされる「純粋状態」では連続的な「確率振幅」として存在するのであり、それが「崩壊」して離散的な粒子に見える「混合状態」になることこそ謎なのである。
ジョン・フォン=ノイマンは1932年、シュレーディンガー方程式から古典力学の運動方程式が導けないことを数学的に厳密に証明し、混合状態は脳の作り出す主観的な像であるという「独我論」に到達した。シュレーディンガー方程式は線形だから、それがどう相互作用しても「崩壊」して非線形になることはありえない。したがって、それが起こっているように見えるのは、観察している人間の脳の中で崩壊が生じているとしか考えられない、というのである。
これは常識を超えた超観念論だが、今日から見ると、ある意味では正しいことがわかる。現在のこの問題についての標準的な見解は、マレイ・ゲルマンなどの主張する「非干渉化」理論である。これによれば、波動関数は実際には崩壊していないのだが、それが観測されるとき、多くの「環境因子」が相互作用し、特定の座標の確率密度が強められ、他の位置の確率密度が極端に弱まる「非干渉化」が起こるとされる。つまり、電子はぼんやりと空間内に共存しているのだが、それが脳で認識されるとき、特定の状態が特に脚光を浴び、他の状態が見えなくなるというわけである。
この理論もまだ定説というには至らないが、実験的な結果はゲルマンらの仮説を支持している。純粋状態と混合状態の中間の「メゾスコピック」な状態では、非干渉化が理論的な予言どおりに観測されており、この現象を素子に利用する「量子コンピュータ」の開発も始まっている。これを使えば、同時に多数存在する粒子に並列計算させることによって、理論的には現在の半導体よりもはるかに速く計算できるからだ。
脳による抽象化
このように、われわれがふだん見ている世界は、実は物理学の方程式で表現される世界と根本的に違っている。この他にも、たとえば空間がなぜ3次元なのかは説明できないし、不可逆な「時間」という概念は古典力学にも量子力学にもない(時間tは負の値もとりうる)。3次元空間の中の位置を持つ物体や一方向に流れる時間という概念は、脳が設定した「座標軸」によって作り出されたものだ。つまり脳は外界を素朴に「反映」しているのではなく、むしろ生存に都合のよい座標軸を設定して無関係な情報を捨象する「抽象化」こそ、脳の本質的な機能なのである。
視覚や聴覚によって入力される情報量は本源的には無限大であり、これをそのまま処理する装置はありえない。効率的な認識にとって最大の問題は、外界からどのような情報を選んで処理しやすい形にするかということである。これは基本的には遺伝的なもので、その選択装置の性能は進化の過程で生き残るうえで決定的な意味を持ったはずである。動物行動学者ユクスキュルは、動物がそれぞれ異なる「環境世界」を持っていることを明らかにし、これがハイデガーの「世界内存在」の概念のヒントになった。
ここで重要な問題は、外界の「無限」の世界を認識可能な「有限」の世界にどうやって帰着させるかということであり、これは情報処理でも行われる量子化=ディジタル化の操作にほかならない。脳が普通のコンピュータと違うのは、信号の一部を機械的なクロックなどでサンプリングするのではなく、重要な情報だけを取り出す機能を備えているということである。これを支えている生理的なメカニズムは十分明らかにされていないが、たとえばニューロ・コンピュータで実用化されている「ボルツマン機械」や「ホプフィールド・ネットワーク」のような非線形の情報選択メカニズムが脳には内蔵されていることがわかっている。
このような神経回路網は、フォン=ノイマン型コンピュータのように固定された手続き(プログラム)によって与えられた情報(データ)を処理するのではなく、多くの情報が相互作用することによって特定のしきい値を超えた信号が自律的に強められ、他の信号が弱められる「自己組織」的なメカニズムを備えている。ニューロ・コンピュータでも、並列処理においては自己組織化が重要な役割を果たし、フランシスコ・ヴァレラはこれを「オートポイエシス」と呼び、ジェラルド・エーデルマンは「ニューラル・ダーウィニズム」と呼んでいる。そのメカニズムはよくわかっていないが、いずれにしても脳が自己組織型のコンピュータであることは疑いない。
差異と秩序
人間の場合、どこまでが遺伝的な形質でどこからが社会的に形成された文化かを同定することはむずかしいが、その有力な材料を提供しているのは言語学である。ヤコブソンの研究では、あらゆる言語の音素の弁別特性はたった7種類しかないことが実証され、言語の遺伝的な側面が明らかにされた。レヴィ=ストロースによって「人文科学におけるニュートンの運動方程式」と呼ばれたこの結果は、あらゆる言語が単純な二項対立の束に還元できることを示している。人間の脳は、文字どおり二進法で計算するコンピュータなのである。
レヴィ=ストロースは、この二項対立を親族や神話などの文化的な現象にも適用し、美しい物語を作り出した。その多くは実証研究としての価値は疑わしいが、人間の認知の本質が、混沌とした「自然」を離散的な言語によって分節された「文化」に還元することだという彼の基本テーゼは、脳のディジタルな性質を見事に示している。いいかえれば、ディジタル化とは、こうした人間の認知的な機能がコンピュータによって拡大されたものにすぎない。
この系列の実証研究の最初に位置するのは、20世紀初めのソシュールの構造主義言語学と、ほぼ同じ時期にあらわれたシャノン・ウィーナーの情報理論だろう。表現は違うが、いずれも情報の本質を「差異」(負のエントロピー)に求め、言語を差異の体系と見た点は共通している。この観点から見ると、文化とは熱力学の第二法則であらわされるエントロピーの増大による「ノイズ」から秩序=差異を守ることに他ならない。古典力学的な世界が脳の情報処理の産物であることを初めて明らかにしたのがフォン・ノイマンだったことは、おそらく偶然ではない。
このような情報選択メカニズムについての思索の歴史は、意外に古い。もちろんコンピュータの生まれる前には、それは情報処理としてではなく、もっぱら認識論として論じられてきた。おそらく外界をどう効率的に認識するかという問題についての最古の系統的な研究は、カントの『純粋理性批判』であろう。彼はここで、それまでの形而上学の「コペルニクス的転換」をはかり、時間・空間などのすべての認識は「先験的範疇」によって作り出されるものだとする。
ただカントの範疇は12もあり、その必然性も明らかではない。これを整理して、肯定と否定の二項対立の体系にまとめたのがヘーゲルである。弁証法というと「正・反・合」の三元論(トリアーデ)というイメージが強いが、これはキリスト教の「三位一体」に迎合したもので、実質的には多段階の二元論である。ヘーゲルの議論は必要以上に観念的に書かれているため難解だが、その図式は単純である。要するに、存在は認識によって作り出されるというカントの議論は正しいが、そのための情報選択装置は「悟性」によって固定的に決まっているのではなく、「理性」によって動的に形成されるのだというのである。上述のモデルでいえば、カントが脳をノイマン型コンピュータと見たのに対し、ヘーゲルはそれをニューロ・コンピュータと見たわけだ。
2.ディジタル化
ヒルベルトからIBMへ
存在を形式の面から規定し、その実体を「抽象化」する発想は、数学においても、19世紀初めに登場した非ユークリッド幾何学以来の公理主義に見られる。ここでは、平行線が交わると仮定しても無矛盾な論理体系ができることが示された。このような思想は、代数系の理論で発展し、ヒルベルトの「形式主義」によって集大成された。ここでは、点や直線という言葉は「コップ」や「皿」という言葉と同様、それ自体では意味のない記号にすぎず、体系の中で操作的に定義され、定理は、現実にそれに対応するものが存在するかどうかに無関係に、論理的に無矛盾かどうかという基準だけで真偽が判別される。このように具体的な実体を抽象化して、その形式だけを扱うことによって20世紀の数学は飛躍的な洗練をとげ、結果的にはそれに対応する応用分野が後から見つかるということもしばしばあった。
ディジタル・コンピュータは、こうした数学的公理主義の産物である。ヒルベルトは20世紀の初めに、こうした形式主義によって完全に無矛盾な数学体系が構築できると考え、その構想に従って多くの数学者が数学を基礎づける「超数学」体系を研究したが、その過程でゲーデルは「ゲーデル数」という概念を作り出した。これは、公理系の無矛盾性を証明するために、数学的な命題に自然数を対応させるもので、これによって自然数についての公理系全体も自然数の集合としてあらわすことができる。汎用コンピュータの概念を初めて定式化した1936年のチューリングの論文は、このゲーデル数を処理する記憶容量が無限大の仮想的な機械(万能チューリング機械)を考え、データを処理する手続き(プログラム)もデータとして表現すれば、このプログラムを書き換えるだけで、原理的にはどんな複雑な計算も処理できることを証明した1。
1945年、フォン=ノイマンは初めてプログラム内蔵型コンピュータを設計した。これはデータとプログラムを2進数としてメモリに格納し、CPUがデータを読み出して、プログラムに決められた手順に従って逐次処理するもので、この基本的な構造は、そのあと半世紀以上、ほとんど変わっていない。ただし初期のコンピュータは技術的な制約から完全には汎用型になっておらず、プログラムを回路の変更で実現していたが、1964年に発表されたIBMのシステム/360は、全製品系列で同じプログラムを使うことによって高い汎用性を実現し、このアーキテクチャはその後、20年にわたってコンピュータ業界を支配した。
その最大の特徴は、コンピュータが60余りの「モジュール」にわけられ、その組み合わせによって多様な機能を実現する一方、それらをつなぐインターフェイスなどの全体設計は固定したことである。これによって、個々のモジュールを独自に改善することを可能にする一方、その変更の影響が他のモジュールに波及することを防いだのである。同様に、ソフトウェアも全体の構造を最初に決め、モジュールの設計は個々の部門にゆだねるが、それらを組み合わせるアーキテクチャは固定する「ウォーターフォール型」の構造がとられた。ただし、ここではシステムの中核となるOSの内部構造は秘密とされ、基本的には外部メーカーによる互換機の製造は許されなかった。
情報のカプセル化
ソフトウェアも、初期にはCOBOLやFORTRANなどの非構造型言語によって開発されていたが、やがてCやPascalなどの構造型言語によってモジュールに分解して記述されるようになった。ここでは処理の流れがモジュールによって構造的に示されるため見通しがよくなり、変更も一部のモジュールを取り替えるだけで可能になった。現在でも、多くのプログラムはCで書かれているが、これは大規模なプログラムを書くには必ずしも適していない。モジュールを相互に参照するため、一部のモジュールを書き換えると、関連する部分全体を書き換える必要が生じ、保守の作業が非常に複雑になるのである。
SmalltalkやC++などの「オブジェクト指向」言語は、こうした問題を避けるために各モジュールを自律的な「オブジェクト」とし、情報をその中に「隠す」ことによって柔軟性を持たせようとするものである。ここでは、データと手続きは一体で各オブジェクトの中に格納され、オブジェクトを駆動することによってプログラムが実行される(ウィンドウ・システムの「アイコン」は、このオブジェクトを視覚化したものである)。オブジェクトの中のデータは、他のオブジェクトで参照することはできても、変更することはできないため、一部を変更しても、その影響がプログラム全体に及ばない。
インターネットのプロトコルであるTCP/IPの特徴も、そのパケットの中にデータを「カプセル化」する点にある。IPはデータをパケットの中に「隠す」ことによって、その処理が特定の機種に依存することを避け、普遍的な相互接続を実現したのである。こうした設計がとられたのは、インターネットの前身であるARPANETの特殊な構造が原因である。初期のARPANETは、データをNCPと呼ばれる独自のプロトコルでコントロールしていたが、これはARPANETの内部構造に依存するため、多くの大学・研究機関のLANを相互接続したとき、データの欠落などが出ると対応できなかった。特に初期のARPANETに混在していた軍事情報をMILNETとして分離するとともに、引き続いて管理をARPANETが行うには、ネットワークが情報の中身を見ないで単純にリレーするだけのTCP/IPが適していたのである2。
このようにネットワーク全体をコントロールせず、ユーザーがパケットを「投げる」だけの単純な構造は、通信コストを飛躍的に低下させたが、通信の効率性や信頼性という観点から見ると、必ずしもすぐれているとはいえない。事実、インターネットは長く研究用の特殊なネットワークとされ、その主な用途は電子メールやファイル転送(FTP)などの単純なサービスであった。プロトコルが余りに単純すぎ、また信頼性をユーザー以外の第三者が保証できないため、業務用の遠隔計算や映像伝送などの高度なサービスには向いていないと考えられていたのである。また通信量のコントロールができないため、増加にともなってインターネットの混雑が深刻化し、最後にはネットワーク全体がダウンする破局的な事態に至ると予想する人は少なくなかった。
しかし1991年から始まった商業利用によってWWW(World Wide Web)を初めとする新しいサービスの利用者が爆発的に増え、低コストで世界中と接続できるインターネットは、複雑でローカルなデータ通信をまたたく間に駆逐してしまった。一方、光通信技術の爆発的な発達によって数テラビット/秒もの伝送速度が実現し、パソコンの処理能力はかつての大型コンピュータを上回るようになったため、通信をすべて独立のユーザーがコントロールし、送り先までのネットワークは完全なブラック・ボックスになる自律分散型の構造が結果的には効率的となったのである。(次号に続く)