ビッグデータから次の打ち手を考えるといった場面で、人工知能(AI)の必要性が高まっている。社会にAIを実装するにあたっては、AIに解釈性が求められることがある。一般的なAIの機械学習(ディープラーニング)は大量データの高速な分析に優れている一方で、導いた予測に対する根拠が明示されないブラックボックス型であるため、企業にとっては意思決定や戦略の立案に使いづらいだけでなく、生活者が不信感を抱く要因にもなり得る。そこで最近注目されているのが「説明可能なAI(Explainable AI=XAI)」すなわち「ホワイトボックス型AI」だ。
 『AIと憲法』などの編著書もある慶應義塾大学の山本龍彦教授と、わが国のAI研究の第一人者、本橋洋介氏が話し合った。

法を前提とした既存価値と発達してきたAIとの衝突

本橋:私はNECに入社以来、人工知能(AI)や知識工学、機械学習などの研究に携わってきました。2012年ごろからはビッグデータがバズワードになったことなどもあり、研究だけでなく、AIの社会実装にも関わるようになりました。私が携ったAIが、すでに30個以上企業などで稼働しています。そのような立場から、山本先生が編集・執筆をされた『AIと憲法』(日本経済新聞出版社)は、いま最もホットなテーマに取り組んだ書籍であり、われわれAIに関わるすべての者が読むべき一冊だと感じました。

慶應義塾大学
法科大学院教授
慶応義塾大学
グローバルリサーチインスティテュー(KGRI)
副所長
山本 龍彦 氏

山本:ありがとうございます。私は憲法学が専門ですが、ここ数年は情報プライバシーに関する研究にも取り組んできました。その延長でAIの問題に巡り合ったのですが、考えてみると、AIがプライバシーにとどまらず、憲法や近代法のシステムが前提としてきた基本的価値と抵触するところがあるのではないかと思い始めました。それが、ご紹介いただいた『AIと憲法』を編んだきっかけです。例えば「プライバシー」について、AIを賢くするためには「よりたくさんのデータ」が必要になりますが、そこでは当然、プライバシー権との緊張関係が出てきます。AIの賢さ、予測精度とプライバシーとは基本的にトレードオフの関係に立つわけです。もう一つ、AIの予測精度を高めようとすると「フェアネス(公平さ)」とのコンフリクト(衝突)も起こり得ます。例を挙げれば、警察の犯罪予測AIなどで精度を高めようとすれば、人種や居住地などを積極的に読むべきということになるかもしれません。しかし、それによって人種差別や少数派への差別を再生産してしまう可能性があります。このため、米国のいくつかの州では、犯罪予測システムにおいて「人種」の要素をあまり考慮しないアルゴリズムを意図的に組んでいます。予測の精度は落ちても、フェアネスを保とうとしているのです。「予測精度至上主義」はプライバシーやフェアネスを犠牲にし得るということに対しては、注意が必要ですね。

結論に至った理由が説明できるNECのホワイトボックス型AI

山本:AIと「自由」との関係で問題になるのは「ブラックボックス化」です。企業の採用試験や金融機関の与信でAIによるスコアリングが多く使われ始めていますが、AIの自動判定に基づいて「あなたは不合格です」と言われても、その判定に高度な深層学習を入れていると、そのロジックを誰も分からなくなる。不採用と言われた側は、低いスコアを付けられた「理由」が分からないから、不条理に没落していくことにもなります。

NEC
AI・アナリティクス事業開発本部
兼 データサイエンス研究所
兼 サービスプラットフォーム事業部
シニアデータアナリスト
本橋 洋介 氏

本橋:「AIが不合格と言っているので」と言われても、おっしゃる通り求職者は納得できませんね。大切なのは、裏付けとなる根拠を可視化することですね。与信であれば、「スコアが35点なのでご融資できません。その根拠は●●です」と理由を明示できることは、これからもっとAIと人間の関わりが深まることを考えると欠かせない要素と言えますね。われわれはこれを「ホワイトボックス型AI」あるいは「説明可能なAI(Explainable AI=XAI)」と呼んで、システムを実装することがあります。通常の機械学習(ディープラーニング)では、予測を導いた根拠が見えません。しかし私たちは、異なるパターンや規則性のデータが混在している場合でも、これを学習し分析できる「異種混合学習技術」によって「ホワイトボックス型AI」が可能であることを立証しました。この技術を使うことで、シンプルで人間が理解できるような予測モデルが可能になります。

山本:なるほど。それは憲法の観点から見ても、あるべき方向性だと思います。もう一つ、AIがもたらすリスクとして、民主主義へのリスクがあります。最近ではAIの予測力を使って、ネット・ユーザーの好みや政治的な傾向をプロファイリングし、その予測に合った情報をネット上に表示させる「パーソナル化」が進んでいます。それにより、ユーザーは自らの趣味嗜好にフィットする情報に触れ続けることが可能です。しかし、他面で、それに合わない情報は目にすることなく過ごすことになります。言わば自分好みの心地よい泡、「フィルターバブル」、あるいは「情報の繭」に包み込まれる。これは非常に快適な状態ですが、異なる見解と接触する機会を失い、嗜好が極端化する危険性があります。これが社会の分断を招くという指摘にも注意が必要です。

本橋:それは大変危険な状態ですね。さらに、山本先生のお話を伺っていて思い至るのは、AIによってむしろフェアネスが担保されるかもしれない、ということです。例えばECサイトで、AIではなく人間が一人一人の購買データを見て、「あなたへのお薦めはこれです」と表示しているとすると、顧客は問題だと感じるかもしれません。AIを用いたシステムで同じことをすれば、ソフトウエアで匿名化処理もするし、なぜお薦めするのかきちんと説明します。人間がやれば属人的な処理に陥る可能性があることも、AIがやれば、公平になる可能性もあると考えています。

山本:その意味では、AIによってプライバシーやフェアネスを実現することもできるわけですね。先ほどお話ししたように、アルゴリズムを調整して人種などの特定要素のウェイトを落とせば、差別的な影響を緩和することもできる。ただ、「調整」しすぎると、少数派を過度に有利に扱うことになり、今度は多数派に対する「逆差別」が起こってきます。インクルーシブやダイバーシティーといった理念を重視して、絶えず予測精度とフェアネスのバランスを考えて設計・実装することが重要です。こうした考慮を怠らなければ、AIによって憲法と調和的な社会が実現できるのではないかと思います。

本橋:人間が社会に深く埋め込んでしまった不公平を見える化して、それを是正していくツールとしてAIが使えたらよいですね。

さまざまな社会課題の解決のためにAIを活用する企業にも期待

山本:AIの設計・実装に当たって、日本がどのようなスタンスを取るべきかという議論があります。政府でも真剣に議論されている論点です。欧州の考え方、米国の考え方、中国の考え方などいろいろありますが、日本が現在強調しているのは、ヒューマンセントリック(人間中心)なAIの設計・実装です。この方向性自体は積極的に評価されるべきですが、重要なのは、その方向性を具体的にどのように制度に落とし込んでいけるかだと思います。

本橋:ちょっと観点は変わりますが、AIに関わっていると、資本主義との関係について考えることがあります。究極的に社会の役に立つAIは、全員を等しく幸福にさせるものであって欲しいと思うのですが、例えば過去の購買記録に基づいたAIの実装をすると、富を持っている人がもっと富を持ち、チャンスをつかめていない人はそのまま、つまり格差を拡大する状況をつくりだしてしまう可能性もあります。このあたりは、技術者だけではなく、山本先生をはじめ、知見を持った専門家の方々との議論が欠かせない領域だと感じます。

山本:AIの設計次第で社会が大きく変わるわけですね。すごく差別的な社会にもすごく平等な社会にもなる。その意味で、技術者と法律家、さらには市民の皆さんとの対話が非常に重要になると思います。もちろん実際に利用する企業の意見にも耳を傾ける必要がありますね。アルゴリズムが公共とは何か、民主主義とはなにか、資本主義とは何かと言う社会の根本原理に影響を与える以上、アルゴリズムの調整を技術者だけの閉じた世界で行うべきではないと思います。AIは社会とのつながりをこれまで以上に維持していくことが求められますね。

本橋:また、パソコンが会社に1台の時代から1人に1台、さらには1人に複数台の時代になったように、AIも会社に1つではなく、将来的には個人がいくつものAIと一緒に仕事をする時代になると見ています。そうなると限られたサイバー空間の中で、AI同士が干渉し合う現象も起こり得ます。私は、AIも住民票のようなものを持って互いに識別し合う時代が来ると予測しています。

山本:面白いですね。法学の世界でも、AIに法人格を付与すべきかどうかが真剣に議論されるようになっています。

本橋:ただ懸念しているのは、現在のAIの在り方の議論には、そうした将来のあるべき姿とはややずれがあるのではないかということです。流行のアルゴリズムのようなものが注目される傾向にあるのですが、それだけではありません。大切なのはどのようにデータを集め、どのような結果を出すかというプロセスであり、そのプロセスを習熟させていくことです。その点で重要なことの一つは、つくり手の「人」の要素です。われわれのようなAIに関わる技術者だけでなく、どのような企業にも総務部、情報システム部などと同様に、AIを正しく理解して導く「AIデータ部」という組織が必要だと感じます。そうした将来を見越し、NECでは最近、AIを実装するスキルを持った人材を育成するため「NEC アカデミー for AI」も開講しました。本アカデミーは、AIを社会実装・活用する役割を担う社会人や大学生を対象とし、実際のAIプロジェクトを題材として、AIをビジネスに活用するための実践経験を積むことができます。これまでNECグループで培ってきた育成メソドロジーをオープンに提供することでAIの社会実装を促進するべく立ち上げました。

山本:非常に重要な試みだと思います。その際には、法的な観点はもちろん、「人間とはどうあるべきか」といった倫理的な観点もきちんと学んでいただきたいですね。EUの動きなどを見ると、企業の活動にとっても、AIと法・倫理とは切り離せなくなっています。企業の前向きな取り組みに期待したいと思います。

本橋:NECが目指すAIの正しい社会実装を実現していくためには、当社のホワイトボックス型AIの長い取り組み経験が役立つと自負しています。例えば、普通のAIは解釈性の度合いの調整が難しいですが、NECのホワイトボックス型AIは、状況に合わせてつくり手が解釈性の調整をできるという特長を持っているからです。さらに、これからのAIには山本先生のような多様な専門家が不可欠です。ぜひご協力いただきたいと願っています。本日はありがとうございました。