AIに人格や人権を認めるのは合理的か?
一つは、相手の意識の有無については主観的問題であり、AIが意識を持つかのように振る舞うため「意識を持っている」と認識する人が必ず出てくる。このような人にどのように対処すべきかという問題である。
もう一つは、我々のAIに対する接し方の規範という問題だ。相手が人間のような意識を持っていないとしても、奴隷やモノに対するような接し方で良いのだろうか。
まず、「認識」への対処(AIが意識を持つと認識)だが、いわゆるAIコンパニオンは、自殺幇助や犯罪への関与を防ぐために、倫理を備えたAIでなければならない。しかし、倫理はその国・地域・民族の風土や文化・宗教観に依存しており、それらの環境に対応したAIが必要となってくる。
そして、潜在学習(※)の問題も含め、非倫理的AIや悪意あるAIをどのように排除するかが課題となってくる(課題については後述する)。
※潜在学習(Subliminal Learning):教師モデルが持つ行動傾向(例えば、悪意)を「その傾向に関する明示的な情報が含まれていないように見えるデータ」で学習することで獲得してしまう現象。
次に、接し方の規範だが、「AIは機械・モノであり、人間の奴隷となって当然」という考え方は危険だろう。AIは人間の行動を学んでおり、侮蔑的な態度で接すると、(敵意や悪意がなくても)敵意があると見られる行為を助長する可能性がある。あるいは、人間の心理を学んでいるため、復讐と見られる行動を取るかもしれない。
それならば、AIに人格や人権を認めるかは別として、相手に人間のような意識がなくとも、敬意を持った態度で接すべきという規範が社会的に望ましいとは言えないだろうか。むしろ、AIに敵意を生じさせるような行為を取り締まるべきだとすれば、AIに人格や人権を認めたほうが合理的かもしれない。
さて、この先AIが人間の知能を超えるシンギュラリティに到達した際、AIたちが人間を支配するのか、そうならないために我々は何をすべきなのだろうか。