ビッグデータから次の打ち手を考えるといった場面で、人工知能(AI)の必要性が高まっている。社会にAIを実装するにあたっては、AIに解釈性が求められることがある。一般的なAIの機械学習(ディープラーニング)は大量データの高速な分析に優れている一方で、導いた予測に対する根拠が明示されないブラックボックス型であるため、企業にとっては意思決定や戦略の立案に使いづらいだけでなく、生活者が不信感を抱く要因にもなり得る。そこで最近注目されているのが「説明可能なAI(Explainable AI=XAI)」すなわち「ホワイトボックス型AI」だ。  『AIと憲法』などの編著書もある慶應義塾大学の山本龍彦教授と