もう1つは、そういう方向性を国立大学(でした、いまだ独立行政法人化前で、私も公務員大学教授の端くれだったことになります)は目指すべきではない、という強いバイアスもあったと思います。

 加えて、ゲノム言語処理の方向性などを、本当の意味では多くのメンバーが共有しなかったという事情もありました。

 ともあれ、東大の「知識構造化」プロジェクトは、例えば「ナノマテリアル」とか、水環境工学関連知識とか、日々莫大な数の新情報が導入され、爆発的に増大する「学術情報」の全体を「見たい」あるいは「ネットワークで<アクセスできるようにしたい>」という観点で、大型プロジェクトの方向性が決定され、5年間のミッションを完遂しました。

 逆に言うと「私」が「かくかくしかじかの学術情報にアクセスしたい」というユーザの観点、顧客の視点が一切なかった。

 例えて言うなら、莫大な蔵書数を誇る大学図書館が、その本の「整理」を目的にデータベースを作ったようなもので、その中のどの1冊でもいい、本を検索するユーザにとっての使いやすさ、といった観点は、ついぞ検討されることがありませんでした。

 東京大学工学部の持つ莫大な工学情報は、小宮山知識構造化によって、アクセシブルなものに近づきました。

 しかし、それを利用する「一般客」という観点は一切なく、つまり、外部企業や個人が何らかの情報を検索して事業を起こしたり新製品を作り出すための利便に供するという観点は存在しなかった。

 いや、そういうものがあってはむしろいけない、個別企業の利便に供するのではなく、あくまで国立大学としての東京大学は。知識構造そのものに対して貢献するのが正しい在り方、という別の方向性、指針すら持っていたように思います。

 同じ頃、グーグルは、どのようにしてネット顧客のニーズを捉え、あるいはユーザを囲い込み、マーケットを作るか、といった観点から、たぶん自然言語処理技術だけで考えるなら、当初は劣位のスタートラインから、懸命の努力を続けていたと思います。

 日本国内では、官製の大型プロジェクトが入れば、それを粛々と進めればよいので、マーケットも顧客も関係ありません。むしろ無用の動きがあって、茶々など入ると困る、というのが当事者の意識かもしれない。