ビッグデータという言葉を耳にするようになって、やや久しくなりました。研究・開発ベースで非常に精緻にこれを扱うところから、ある種のキャンペーンとして浅く扱うものまで、様々な展開を目にします。
私も、少し前に声をかけていただいて、久しぶりにこういう問題に関わるようになりました。
久しぶりと言うのは1999年、テレビ番組などの現場を離れて大学に呼んでもらった当初、音楽の研究室ですが音楽を食い扶持の道具にしないためにも、大学の「情報部署」に呼ばれたことから(また物理の道具があるので)、30代の5、6年ほど「IT革命」以後の大規模情報の取り扱いに、原理から携わっていたものです。
これは「東京大学知識構造化プロジェクト」というもので、2006年には一通りの山を越え、私はちょうどオウム真理教を扱った「さよなら、サイレント・ネイビー」を書いて一般原稿なども依頼をいただくようになり、プロジェクトの切れ目以降、大学の仕事は本来の音楽だけに戻して集中的に仕事するようになったものです。
皮肉なもので、大学仕事として音楽を進めると、本来の演奏・作曲が後手になるという40代となりました。
30代、40代と、作ってきた仕事は自分でゼロから組み立てたものが多いので、2つを両輪に最近は展開していますが、少し前から相談されるようになったのが「ビッグデータ」だったわけです。
「ソフトウエア・クライシス」から「ゲノム・エンジン」へ
今を去ること20年、1995年からいわゆる「IT革命」なるキャンペーンが本格化して、90年代後半には「情報」を巡って様々な動きがありました。
ネットを民生に公開する<インターネット>時代の幕開けは、それまで職人芸の手作り的な面が強かったコンピューター・プログラミングの速度的な限界を示唆するようになり「オブジェクト指向言語」の使用が奨励されるようになった・・・。
なんていう昔話でありますが、とにもかくにも1980年代までとは比較にならない速度で飛躍的に知識の増大、爆発がある、ソフトウエアが絶対的に不足する、データ量も莫大となってどうにもならなくなる。
何とかしなければ、ということで「ネットワーク型知識基盤」というものを作ろう、という話になり「知識構造化」のプロジェクトをゼロから考え始めたわけです。
実はこの時期、もう1つ並行して進んだサイエンスに「ヒトゲノムの解読」がありました。