「法理」の網を超える「AI犯罪」のリスク

 例えば、以下のような生々しい状況を考えてみましょう。

 次の国政選挙、A県B選挙区で、互いに対立する政党に所属するC候補とD候補が、しのぎを削っていたとしましょう。

 ここでC候補に対するネガティヴ・キャンペーンをD陣営が画策するとします。

 例えば、Cはこんな不正がある、人間性はこんなに低劣だ、法的手続きも守っていない・・・などなど。

 あることないこと取り交ぜて、ツイッターなどのSNSはもとより、音声動画などネット上にフェイクニュースを垂れ流す状況を考えましょう。

 またD候補については、Dさんはこんなに素晴らしい、実はDさんは目立たないところでこんな人助けもしている、Dさんは優れた能力を持ちながら、それを鼻にかけたりしない・・・。

 ないことででっち上げたポジティブ・イメージをばらまくとします。

 一定以上悪質なこうした情報発信は、投票日以降に捜査の手が伸び、不法行為の事実が明らかになれば、法的に罰することができます。

「G7群馬高崎デジタル・技術大臣会合・閣僚宣言」にも、各種の遵法的風味のお経やノリトが記されている。

 しかし、もし仮に上に記したような「ネガティブ・キャンペーン」や「でっち上げポジティブ」などを、高度自律システムが勝手に作り出していたなら、と考えてみていただきたいのです。

 つまりD陣営としては、極力、法に触れない遠隔操作のような形で、AIが勝手に振舞うように準備して、C候補を貶めるフェイクニュースを自動生成するわけです。

 あるいはD候補に「経歴詐称」のようなことをさせてもよい。

 でもこれらが「AIのやったこと」となると、いったいいかなる責任を誰に対して訴求することができるのか?

 自然人格である特定の個人を「公職選挙法違反」で逮捕や起訴したりすることができないとき、いったい政府は、あるいは選挙管理委員会は、どのような不正防止や事後の取り締まりが可能になるのか。