国税庁によるAI利用の問題点
もっとも、AI活用には看過できない問題もある。
第一に、AIは過去の税務調査データに依存するため、そのデータ自体に偏りや誤りがあれば、判断精度も歪む。暗号資産のような新しい分野では、そもそも十分なデータが存在しない。
また、税務調査の現場では、重加算税の賦課割合や金額が評価指標として意識されてきた側面がある。その結果、本来は重加算税に該当しない事案まで無理に重く処理されるなど、必ずしも「正確なデータ」が蓄積されてきたとは言い切れない。
重加算税とは、売上の除外や架空経費の計上といった隠ぺい・仮装行為が認められる場合に課される、極めて重いペナルティであり、その税率は通常、追加で納付すべき税額の35%に達する。他方、単なるミスによる過少申告の場合に課される過少申告加算税は10%にとどまる。
第二に、人間の調査官が持ってきた先入観やバイアスが、AIによって再生産されるおそれがある。極端な例を出すならば、「特定の国籍の納税者は不正の可能性が高い」、「特定の地域の納税者は調査に行けば数字が出る」といった特定の属性だけを理由に、高リスクな納税者であると判断され続ける事態も想定される。
第三に、AIの判断を過度に信頼してしまう「自動化バイアス」と、予算を投じた「AI活用は成功している」という物語を発信したい組織風土が相まって、特定の納税者が事実上ブラックリスト化されるリスクがある。
つまり、形式上は人間が確認していても、実質的にはAIによる選定が絶対視され、上記で述べた各問題を抱えたまま、特定の属性を有する納税者が半ば自動的にブラックリスト化され、偏った調査選定が繰り返されるリスクがある。
第四に、AIが、なぜ特定の納税者について「申告漏れの可能性が高い」と判断したのか、その理由が人間には理解できない、いわゆるブラックボックス問題も深刻である。
納税者が「なぜ自分が調査対象に選ばれたのか」と問いただした際に、「具体的な理由は分からないが、AIが高リスクと判断した」という説明しかできないとすれば、果たして納税者は納得できるであろうか。
また、AIが用いた判断要素が不明であれば、誤ったデータや事実誤認が含まれていたとしても、納税者はそれを訂正する機会すら与えられない。他方で、判断理由を人間に分かりやすく説明できるAIを開発した場合、そのAIが、従来の人間や機械による選定を超える精度を本当に実現できるのか、という別の問題も生じる。
第五に、AIの仕様や性能がどの程度の水準にあるのかが、ほとんど明らかにされていない点も見過ごせない。
米国の国税庁では、複数の調査選定システムについて、申告漏れの発見率や、問題のない納税者を誤って高リスクと判断する「偽陽性率」などを継続的に検証している。偽陽性が多発すれば、無駄な調査が増え、納税者の権利侵害につながるからである。他方で、本来調査すべき納税者を見逃す「偽陰性」の問題も軽視できない。
では、日本の国税庁において、AI税務調査の性能や影響について、どのような検証が行われているのであろうか。本稿で指摘してきた問題点を含め、現時点では、その実態について十分な説明がなされているとは言い難い。この不透明さ自体が、AI税務調査の正当性を考える上で、極めて重要な問題である。