残されている倫理的課題
ただ、こうしたAAIOが野放図に進められることに対しては、研究者や専門家の間から倫理的な懸念が示されている。
私たちがいま使っているGoogleやBingなどの検索エンジンは、質問に対して複数の選択肢を提示してくれる。たとえば、「会社の打ち上げで使える居酒屋」などと検索すると、さまざまなお店のリストが表示され、私たち自身が選択できる。
しかし、AIエージェントの場合はそれとは大きく異なる。
AIエージェントは単に情報を並べるのではなく、情報を自分で判断して「これがあなたにぴったりです」と1つの答えを出してくる。たとえば、「美味しいラーメン店を予約して」と指示すると、AIエージェントは私たちの過去の好みや評判などを分析し、1つのお店を選んで予約までしてしまうことになる。
ここで問題となるのは、なぜそのお店が選ばれたのか、その理由が見えにくいことだ。もしかしたら、単にAAIOを巧みに行ったお店が優先的に選ばれただけかもしれない。消費者である私たちからは、その選択プロセスが見えなくなる恐れがあるのだ。
AIエージェントが選ばなかった居酒屋は、機械が理解しやすい形で営業時間、メニュー、価格などの情報を提供していなかっただけで、実際にはエージェントが選んだ店舗よりも打ち上げに適した店だったかもしれない。
こうした「見えない誘導」が倫理的な問題となり得る。透明性(なぜこの選択肢を提示したのか)、公平性(特定のサイトだけを有利にしていないか)、多様性(異なる選択肢も提示されるか)といった点をどう確保していくかが重要な課題となるだろう。
考えてみれば、これはSEOでも指摘されてきた問題だ。人々がウェブ上で情報を探すのに検索エンジンを頼るようになったとき、検索エンジンの判断をいわば「捻じ曲げて」でも自社サイトに訪問させようと行き過ぎたSEOが行われた結果、ウェブ検索という行為自体の価値が低下する事態も起きてきた。
AIエージェント時代には、それがエージェントの利用者である消費者にとって真の利益を生むものになるよう、エージェントの開発者とAAIOの実践者の間で友好的な協力が行われることを期待したい。
小林 啓倫(こばやし・あきひと)
経営コンサルタント。1973年東京都生まれ。獨協大学卒、筑波大学大学院修士課程修了。
システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後コンサルティングファーム、国内ベンチャー企業、大手メーカー等で先端テクノロジーを活用した事業開発に取り組む。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たなビジネス』『ドローン・ビジネスの衝撃』『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(草思社)、『データ・アナリティクス3.0』(日経BP)、『情報セキュリティの敗北史』(白揚社)など多数。先端テクノロジーのビジネス活用に関するセミナーも多数手がける。
Twitter: @akihito
Facebook: http://www.facebook.com/akihito.