ここにはもう1つ、デリケートな問題がありました。ユーザの個人情報です。

 ネットユーザが様々な情報行動を取る。その中には当然ながら莫大なプライバシーの塊で、それを勝手に集められ、トレースなどされたら、たまったものではない、という意見も当然のことと言えるでしょう。

ビッグ「データ」は割りの良い買い物か?

 ともあれ、このような背景のなか、就任早々から危機対応を迫られたオバマ民主党政権のもとで「ビッグデータ」ビジネスが喧伝されるようになったこと、米国政府が旗を振れば、当然ながらそれは日本の官庁に直接移植され、経済産業省の施策としても

 「ビッグデータを活用した新たな経済指標~経済産業省 IoT推進のための新産業モデル創出基盤整備事業~」

 といったものが選ばれていく。分かりやすい話です。

 さてここで現実に目を向けてみましょう。実際にデータバンクなどで「ビッグデータ」を扱った経験がある方なら100%同意されると思いますが、データテイクの段階で整理されていない、雑多な母集団を相手に、まともな結論を得るべく「ビッグデータ解析」を実施しようとすると、データ洗浄の類にどれくらいの手間がかかるか?

 手間は手間だけでなく、時間とコストも当然ながら同時に意味します。さらに、そこから導かれる結論は、必ずしも新規性の高いものではなく、従来データとよく符合している、といったケースが珍しくない。

 そのような結論を、あたかも未来予測が可能であるかのごとく誤解する経営者もあって、その結果、微妙にギャンブル的な経営判断が下される場合があります。私は長年、こうした現象を「デジタルおみくじ」と呼んできました。

 「莫大なツイッター情報を解析した結果、きしくも正確に***が予測」できれば結構ですが、そうではなく、「***」と一致するように、統計を使って後からお話を作ることができました・・・というのは、マクロとか統計とか扱う人はどなたでもご存知のとおりでしょう。

 実は小説を書くように、どのようにでも後から「創意工夫」できてしまうのです。