あの日のジョブズは(18)

あの日のジョブズは
この記事は約16分で読めます。

18 つながりっぱなしの世界

 インターネットの起源は、ENIACなど現代型コンピュータと同じあたりまで遡ることができる。そしてENIACがそうだったように、インターネットもやはり軍、大学、民間企業という三つのグループのパートナーシップから生まれた。三つが結び付いた要因は言うまでもなく戦争である。第二次世界大戦の末期、産官学のトライアングルが開発を急いだものの一つが、攻撃を受けた際に早期警報を出し、応戦準備を整える防空システムに使うコンピュータだった。

 当時はまだパンチカードの時代である。コンピュータに何かやらせたいと思えば、パンチカードの束やテープをオペレーターに渡し、結果が戻ってくるまで数時間から数日も待たなくてはならない。ミサイルや爆撃機が飛んできているというのに、そんな悠長なことをやっていたのでは間に合わない。そこで考え出されたのがタイムシェアリングというシステムである。これは一台のメインフレームに多くの端末をつなぎ、何人ものユーザーがコマンドを入力して、短時間で結果を得ることができるというもので、MITで人工知能の研究をしていたジョン・マッカーシーたちの研究がベースになっている。

 対話型コンピュータ処理の原型をなすものとも言えるタイムシェアリングの重要性に着目したのは、当時防空システムに使うコンピュータの開発を任されていたリンカーン研究所だった。半自動式防衛管制組織(SAGE)というシステムの研究開発には、マンハッタン計画以上の資金と人材が投入されたと言われている。まさに国家の存亡をかけた一大プロジェクトだったわけだ。

 やがて戦争が終わると、核兵器と同様にコンピュータの「平和利用」が模索されるようになる。SAGEの場合も防衛システム以外に応用できそうだということで、戦後も引きつづきMITなどを拠点に研究が進められる。これがインターネットへと進化していく。そこで中心的な働きをしたのが、マッカーシーの同僚だったリックライダーである。

 サイバネティクスで有名なノーバート・ウィーナーは、すでに50年代からコンピュータの性能が高くなるほど、想像力と独創力に富む高度な人間の思考とコンピュータを結び付けることが重要になると考えていた。ウィーナーの考え方に賛同したリックライダーは、これを「人間とコンピュータの共生」と呼び、オンラインで人とコンピュータがやりとりするデバイスや技術の可能性を模索した。リックライダーたちの研究は、やがて対話型コンピュータ、直観的インターフェイス(グラフィカルでわかりやすく情報を表示するディスプレイ)、膨大な情報を送信できる高速ネットワークといった、幾つかのアイデアが集束するかたちで「ネットワーク」という一つの概念になっていく。

 1969年、インターネットの萌芽となる最初のネットワークが生まれた。ARPANETである。その名のとおりアメリカ国防総省の高等研究計画局(ARPA)が資金を出して研究開発がはじまった。要するにマッカーシーたちのタイムシェアリング・システムをネットワーク化して、幾つかの大学や研究所(この場合はARPAから資金提供を受けている研究者たち)が共同で使えるものにしようというわけだ。やり方は二つあった。一つは中央制御用コンピュータが情報経路を決定するハブシステムを構築する方法である。もう一つはタイムシェアリング・システムに経路選択機能を受け持つミニ・コンピュータを接続する方法で、このネットワーク管理機器はインターフェイス・メッセージ・プロセッサー(IMP)と呼ばれ、現在のルーターに当るものである。結局、二つ目の方法が選ばれることで分散型ネットワークが生まれることになった。

 さらにもう一つ、ARPANETに採用された重要な技術が、今日でもデータ通信の基盤となっているパケット交換方式である。ランド研究所のポール・バランによって、やはり戦争の産物として生まれた。ときは米ソ冷戦時代、ミサイル攻撃によって電話通信網が破壊されたときのことを想定し、より安全な電気通信システムを検討する必要があった。そこで「最初の核攻撃に耐え、同レベルで報復できる戦略システム」として開発されたのがパケット交換方式である。たとえば電話などで使われている回線交換方式の場合、通話しているあいだは一時的に専用回線となる。そのあいだ回線は塞がってしまうため、膨大なデータを送るのには適していない。そこでデータを同一サイズの小さな単位(パケット)に分割して、宛先を示すアドレス・ヘッダーをつけて送り出す。するとパケットはノード(中継点)からノードへリレーされるかたちで宛先まで送られる。

 このアイデアが優れているのは、その時点で最適なリンクを選んでデータがノード間を運ばれていくため、通信回線を最大限に利用できることだ。データが多すぎてリンクが混雑すると、一部のパケットは別のリンクへ経路変更となる。パケットがすべて宛先に届いたら、ヘッダーに書かれた指示に基づいて再構成される。インターネット創設者の一人(ヴィントン・サーフ)が言うように、「長い手紙を何十枚ものハガキに切り分け、それぞれに番号を振って同じ宛先を書いておくようなものだ。ハガキの配達経路はいろいろになるかもしれないが、全部届けば元の手紙に戻せる」(アイザックソン、2019)ということになる。

 こうしてパケット交換方式のネットワークが幾つか立ち上がるが、システム間には互換性がなく相互運用もできなかった。つまり一つひとつのネットワークが閉じて孤立している状態だったのである。そこでARPAのロバート・カーンと先述のヴィントン・サーフがネットワークをつなぐシステムを開発し、インターネットワーク(インターネット)と名づける。

 基本的な考え方は、ネットワークに接続されているすべてのコンピュータに電話番号のようなアドレス(インターネット・プロトコル・アドレス)を付けるということだ。これが現在も使われているインターネット・プロトコル(IP)である。さらに伝送制御プロトコル(TCP)と組み合わせたTCP/IPという新しいネットワークが生まれる。こうしてネットワーク同士の相互接続が可能になった。

 1970年代はじめには「ユーザー名@ホスト名」というネットワーク・メール(電子メール)の形式が登場する。これがネットワーク上のトラフィックを飛躍的に増大させることになった。電子メールによる共同作業が可能になることによって、共通した興味や目標をもつ者による仮想コミュニティが生まれはじめる。70年代末から80年代にかけて、アメリカの大学や研究機関を中心に多くの電子掲示板やニュース・グループが誕生する。

 しかし仮想コミュニティに参加するためには専用の接続手段を必要とするため、オフィスや一般家庭からのアクセスはまだ難しかった。そこで登場するのがモデムである。電話回線で伝えられるアナログ信号をデジタル情報に変換できる、この小型デバイスの登場により、普通のユーザーでも電話回線を経由してオンライン接続できるようになった。こうして家庭用コンピュータと世界中のネットワークがつながり、オンライン革命がはじまる下地ができた。

 1991年、ワールド・ワイド・ウェブ(WWW)の登場により、ネットワークはまさに世界的なものになる。かつてヴァネヴァー・ブッシュが提唱した「ハイパーテキスト」というアイデアがもとになっている。「hyper-(~を超えた)」という名前のとおり、複数のテキストを相互に結び付ける仕組みである。これをインターネット上で実装したものがワールド・ワイド・ウェブである。

 面倒な説明を省いて概略だけを述べれば、サーバーとクライアントのあいだでデータの送受信を行うためのハーパーテキスト転送プロトコル(HTTP)、Webページを作成するためのハイパーテキスト・マークアップ言語(HTML)、さらにWebサイトを閲覧するためのソフト(ブラウザ)やネットワークからの要求に応答するサーバー・ソフトウェアなどが必要なツールとして組み合わされている。この画期的なイノベーションは開発者のティム・バーナーズ=リーの意向により、WWWはフリーのオープン・ソースとして提供されることになった。

 1993年にはアル・ゴアたちの働きかけにより、法的にもインターネットが一般の人たちに開放される。これは冷戦時代の軍用ネットワークを、民間企業などが利用できるようになったことを意味している。この規制緩和によって、その後10年間のデジタル・イノベーションへの道が拓かれる。

 ところで、ぼくたちのあいだでHTMLは評判が悪い。ブログなどでHTML文書を作成している人はおわかりだろうが、段落分けや引用のたびに“<”と“>”で括ったタグを入れていかなければならないので面倒でしょうがない。しばしば裁判沙汰になることを見ても、バージョン管理や著作権保護も曖昧のようだ。

 またリンクは一方通行なので引用から出典をたどることができず、論文の盗用や著作権の侵害が起こりやすくなっている。ブログで有用な情報を発信しても簡単な少額決済の仕組みをつくれないから、人気のあるブロガーでも企業の広告収入に頼ることになってしまう。当然、コンテンツはできるだけ多くのユーザーの注目を集めようとするものになりがちだ。読者のニーズよりも広告主の意向を意識して記事を書くといった傾向も強くなるだろう。

 もう一つ、ぼくたちが現在使っているブラウザは、エクスプローラにしてもエッジにしてもクロームにしても編集機能が付いていない。エディター機能はマイクロソフトやグーグルに握られているのである。ウェブの実質的な発明者と言えるバーナーズ=リーが開発したブラウザは、文書の読み込みも編集もできるものだったらしいが、普及したのは画像などの装飾的な表示が優先されたブラウザだった。そのため本格的なコラボレーションに利用できるツールという、当初バーナーズ=リーが考えていたものとは違う道を歩みはじめる。現在のウェブはほとんどの人にとって、メーカーや飲食店やホテルやワイン・ショップから発信される情報を一方的に受け取るだけのものになっている。要するに彼らの商売道具になっているわけだ。

 こうしたウェブの特性を助長し、強化するために、iPodやiPhoneやiPadは大きな役割を果たしたと言えないだろうか。ジョブズのビジネス・プランにコラボレーションという視点はほとんどない。彼のスタイルは常に製品やサービスを一方的に提供し、ユーザーの体験までコントロールしようとするものだ。いかにすぐれた製品やサービスであり、また心地よい体験であっても、ユーザーが独自に創造性を育むことまでは考慮されていない。また情報を探したり共有したりすることには便利でも、それを共同作業に結び付けることは仕様に組み込まれていない。

 もちろんウィキがある。ウィキ・ソフトウェアを実行しているウェブ・ページを直接クリックして入力することで、誰でも自由にウェブ・ページを編集できる仕組みだ。1995年にウォード・カニンガムによって開発された。これにジミー・ウェールズが構築したオンラインの百科事典(ヌーペディア)が結び付くことでウィキペディアが生まれる。2001年のことだ。2014年の時点で、記事の総数は3000万件を超え、使われている言語はアイスランド語からンドンガ語まで287言語を数える。英語版だけで440万件余りに達するという(アイザックソン、2019)。

 人はなぜ記事を書くのだろう。人とかかわるという心理的な報酬のためだろうか。役に立つことをしたという個人的な満足感だろうか。自分の知識や言葉を発信することの喜びだろうか。確かなことは、ウィキペディアには何十万人もの寄稿者がいるということだ。その営みが蓄積されて広大なコモンズ(共有地)を成している。ウィキに掲載されている記事はすべて無償で寄稿されたもので、ぼくたちはそれらを無料で利用することができる。しかもグーグルの翻訳ソフトを使えば、数多い英語の記事のほとんどを日本語で読むことができる。ウィキは来るべき世界のあり方を示唆しているかもしれない。

 あるいはグーグルはどうだろう。ハイパーテキストの大きな欠陥は双方向性がないという点だ。たとえばぼくのホームページに張ってあるリンクをたどって他のページへ行くことはできるが、ぼくのホームページに誰がリンクを張ってくれているかはわからない。それならリンクを逆にたどる仕組みをつくればいい。ラリー・ペイジとセルゲイ・ブリンが最初にやったことは、リンクを集めて巨大なデータベースをつくるということだった。集めたリンクを逆にたどれば、各ページにどのサイトからリンクが張られているかわかるというわけだ。

 1996年1月の時点で、ウェブ・サイトの数は10万、文書の総数は1000万を超えており、その間には10億近いリンクが張り巡らされていたという。大変な作業だがやる価値はあった。その後もサイトの数は年々指数関数的に増えつづけているから、彼らがやったことを現在やろうとしても、もはや不可能だろう。最初に思いついた者の勝ちである。

 目先の効く二人がつぎに考えたのは、集めたサイトの重要度を評価することだった。もともとこれはスタンフォードでペイジが博士論文のテーマとして手がけていた研究だった。やり方は簡単だ。他のサイトからそのページを参照しているリンクの数と質を計量すればいい。重要度によるランキングのついたページのインデックスがあれば、質の高い検索エンジンが作れる。このアイデアがグーグルの原点になる。さらに二人は出現頻度、フォントの大きさ、ウェブ・ページ上に表れるキーワードの位置など、評価因子を追加することによってランキングの精度に磨きをかけていく。

 こうして歴史を振り返ってみると、インターネットは国防上の必要性からとりあえずできてしまったという面が強い。したがって使い方もはじめのうちは限定的だった。ウェブ(WWW)にしても、バーナーズ=リーが当初考えていたことは、素粒子物理学の研究者たちが相互に論文や情報にアクセスするためのプログラムに過ぎない。それが大きな価値をもつようになったのは、多くの人が参加していろんなことをやりはじめたからである。公共の道路みたいなもので、トラフィックが増えるほどインフラとしての有用性は高まる。

 インターネットが成功した最大の要因は、その目的が接続性に限定されたことだろう。別の言い方をすれば、中央集権的なコントロールを極力排して分散型のネットワークにしたことだ。「エンド・ツー・エンドの原則(End-to-End Principle)」と呼ばれるこのネットワーク設計は、コンテンツをネットワークのエッジに置き、経路上のシステムはできるだけ単純にして、情報の中継や転送のみを行うというものだ。こうしたアーキテクチャーのおかげで、インターネットは参加者が創造性を交換できる場になった。まさにいまぼくたちがやっているように、参加者は自らの創意工夫で自由な使い方ができる。このことがインターネットの価値を高めたと言える。

 2001年、アップルは新型iMacの発表にあわせて「Rip. Mix. Burn.」というキャンペーンを展開する。新しいiMacにはCD-RWドライブとiTunesが搭載されていた。そのためiTunesを使って好きな曲をiMacに取り込み、CD-RWドライブを使ってオリジナルのミュージックCDを作る、といったことが簡単にできるようになった。まさに「拝借して、混ぜて、焼こう」というわけだ。またデジタル・ビデオ編集ソフトとしてiMovieもインストールされており、撮影した写真や動画を編集して自分のWebサイトで公開できるようにもなっていた。

 この「Rip. Mix. Burn.」に象徴されるデジタル技術は、ごく普通の人たちの創作の幅を広げ、子どもから老人までが創造性を発揮することを格段に容易にしたと言える。たとえば高名な音楽評論家などが編集したCDをレコード会社が販売することは、それまでも普通に行われていた。同じことを市井の音楽愛好者たちがやれるようになった。プロとアマチュアの違いがなくなったとも言えるし、誰もがクリエイターになれる時代がやって来たとも言える。「ラッパー」と呼ばれる人たちは、そうして生まれてきた新しいタイプのクリエイターである。彼らがやっていることは、他人の音楽をリッピング(サンプリング)し、そこに歌詞を乗せたり他の音楽とミックスしたりしたものをCDに焼いて多くの人たちに売るということだ。楽器が弾けなくても、歌がうたえなくても、ミュージシャンになれる時代がやって来た。

 すでにあるものをコピーし、利用者が好きなようにアレンジ(編集やミックス)して他の人が見聞きできるかたちで公開する。こんなふうに書くといかにも安易な感じがするけれど、もともと創作や創造とは先人たちの残したものをコピーし、アレンジすることではなかっただろうか。モーツァルトが少年時代に書いたピアノ協奏曲(K37、K39、K40、K41)が、実際には彼が作曲したものではないというのは有名な話だ。他人の曲を拝借して、十一歳の少年がコンチェルト用に編曲してしまったのである。そうやってモーツァルトは協奏曲の書き方を学んでいったのだろう。いまでも画家の卵たちは名画の模写は必須のトレーニングとして行っているだろうし、パリの画壇にセンセーションを巻き起こした印象派の画家たちも、若いころはルーブルに足しげく通って古典絵画の模写に励んだ。

 では、その先にあるオリジナリティ、一人ひとりの作家の個性みたいなものは、どうやって生まれてくるのだろう? これは難しい問題だ。モーツァルトの時代、イタリアの音楽を学ぼうと思えばイタリアへ行くしかなかった。ハイドンの交響曲や弦楽四重奏曲のスタイルを自分のものにするためには、ザルツブルクを離れてウィーンへ旅する必要があった。旅のなかで少しずつ自分の音楽を創造し、熟成させていく時間をもつことができた。

 しかし現在、ネットワークのエッジに置かれたコンテンツはデジタル化されているために完全な形で複製できる。しかも実質的なコストはほとんどかからない。また大量のコンテンツを一瞬のうちにどこへでも移動させることができる。ほとんど無料である。こんなふうして音楽でも画像でも文章でも、一ヵ所にあるものは多くの場所に遍在している。

 つまりぼくたちは自分で何かを創造する前に、すべてを与えられている、という世界を生きているわけだ。すでにあるものを使って新しいことをする、何か新しいものを生み出すということになれば、コンテンツのオリジナリティや個性は、既存の音楽や文学やデザイン、あるいはプログラムなど、すでにあるものから何を選び、どのように組み合わせ、いかにアレンジして使うかといった、要するに「アイデア」にしか求めえないだろう。そこに創造性やクリエイションを見るしかなくなる。アイデアがコンテンツのオリジナリティや個性を保証するものになる。このアイデアがネットワーク上で公開され、優劣がついたり値段がついたりする。

 ネットワークをそれぞれのエッジに置かれたコンテンツも含めて一つのコモンズ(共有地)と考えてみよう。ほとんど無数の種類の、無数のタイプの、無限に近い数のコンテンツがネットワークでつながっている。これらのコンテンツはデジタル化されているために、ほとんどコストをかけずに一瞬のうちにあらゆる場所へ移動させ、完全な形で複製することできる。

 そうしたコンテンツの一つに、ぼくたち自身がなろうとしている。ぼくたちはネットワークのエッジにピア・ツー・ピアのプレイヤーとして、クリエイターとして、ユーザーとして、コンシューマーとして存在する。こうしたあり方が、一人ひとりの人間をネットワークのエッジに遍在するコンテンツに、より適切な言い方をすれば「リソース」にしている。

 そう、人間は進化している。だが、どの方向へ? 他のあらゆる流動の配置の進化と同じ方向へ、すなわち全体として流れやすいデザインへだ。私たちとともに動くもの、私たちのせいで動くものはすべて(人もものも情報も)、地上のいたるところでしだいに大きなアクセスを伴って、より容易に流れている。過去の人間の移住から今日の国際化や自由貿易へ、二〇世紀の地球全体の電化から二一世紀の大量航空旅客輸送や通信へ、土地に縛られた奴隷や農奴から自由な個人や乗り物に乗った個人へと、すべての流れが良くなっている。(エイドリアン・ベジャン『流れとかたち』柴田裕之訳)

 そう、人間は進化している。流れを良くするほうへ、すなわち摩擦係数ゼロの世界へ向かって。べジャンによれば、ぼくたちが生きている世界は自然か人工かにかかわらず、また生物と無生物を問わず、すべて自然界のデザインのあらわれである。デザインとは流れを良くし、動きやすくなるための形と構造の生成だ。流れを良くすることが進化であり、自由とは世界に流れの良いデザインをもたらすための機能である。

 さらに進歩とは、世界から摩擦や障害を取り除くことである。そこに未来への展望がある。より速く、より容易な運動を促進する変化が善であり、美もまた同じ原理によって定義される。ぼくたちから見れば奇怪なまでに単純でフラットな考え方だが、この世界は間違いなくべジャンが言う方向へ向かっている。

 たしかに奴隷や農奴が自由な個人になるのはいいことだ。遠い場所へ素早く移動できるのも悪いことではない。あらゆる摩擦や抵抗は克服すべき不完全性である。やがて人間の意志や感情も、自由な流動性を妨げる障害として排除されるだろう。それもまた「進化」であり「進歩」であるというのは、かなり恐ろしい考え方だ。だが現実に世界は、ベジャンが言う通りのものになりつつある。いや、すでにそうなっているのかもしれない。

Photo©小平尚典