ビッグデータから次の打ち手を考えるといった場面で、人工知能(AI)の必要性が高まっている。社会にAIを実装するにあたっては、AIに解釈性が求められることがある。一般的なAIの機械学習(ディープラーニング)は大量データの高速な分析に優れている一方で、導いた予測に対する根拠が明示されないブラックボックス型であるため、企業にとっては意思決定や戦略の立案に使いづらいだけでなく、生活者が不信感を抱く要因にもなり得る。そこで最近注目されているのが「説明可能なAI(Explainable AI=XAI)」すなわち「ホワイトボックス型AI」だ。 『AIと憲法』などの編著書もある慶應義塾大学の山本龍彦教授と
【特別対談】
人工知能にも説明責任を!
「ホワイトボックス型AI」がかなえる未来社会
2019.3.18(月)
JBpress
Premium会員登録のご案内
Premium会員の特典
- プレミアム限定の記事配信
- プレミアム専用記事レイアウト
- 印刷に最適な画面提供