「AIブーム」と言われる昨今、毎日一度は「AI(人工知能)」という言葉を目にするという読者は少なくないはずだ。ニュース等を見て、自分のビジネスにどう活用しようか検討している人もいるだろうし、「AIに仕事を奪われる」という未来予測を見聞きして、漠然とした不安を感じている人もいるだろう。

 多くの製品やサービスで用いられているAIだが、その意味や分類を正しく理解できているだろうか? 今回はAIについての大枠を掴めるよう、「特化型」AIと「汎用型」AIの違いについて解説する。

“AGI”って何? AIとの違いは

 SF映画や小説で登場するAIといえば、人間と似たような思考回路や自我を持ち、時には人類に反抗してみせる。作品によって差はあるだろうが、大体こんなイメージではないだろうか。要するに人間に命令されずとも自分で考え、自らの判断で行動することができるのだ。こうしたAIは現実世界において「AGI」(Artificial General Intelligence)と呼ばれ、人間と同じように自律的に思考・学習できる「汎用型AI」のことをいう。「強いAI」とも言われることもある。

 一方、単に「AI」と言う場合は通常、何か一つの機能に特化した「特化型AI(Narrow AI)」を指し、「弱いAI」に分類される。2つの違いは、特化型の事例を見るとよく分かる。

 特化型AIの代表例に挙げられるのが、Google傘下のAI企業DeepMindによる「AlphaGo(アルファ碁)」だ。長年、囲碁は将棋やチェスに比べ複雑な思考が要求されるボードゲームであり、人間の棋士に勝てるプログラムを作るのは困難だと言われていた。しかし2015年10月、AlphaGoは世界で初めて人間のプロ棋士を破り大いに話題を呼んだ。

 これは歴史的な快挙だが、AlphaGoはあくまでも囲碁を打つことに特化したAI。今や画像解析や自動運転等、様々な分野でAIが活用されているが、そのどれもがAlphaGoと同じくある目的に特化した特化型AIに分類される。そんななか、人間のように自ら思考するAGIであれば分野横断的な学習や、それによる新たな価値の創出もできると期待されているのだ。

「人間のようなAI」と聞くと、日本マイクロソフトの「りんな」やAppleの「Siri」を思い出す読者もいるかもしれないが、いずれもAGIではない。りんなやSiriは、言ってみれば「まるで言葉を理解しているかのよう」なやり取りができるよう開発された「会話」特化型AIだ。非常に高い技術力の結晶であることには違いないのだが、これらのAIは本当の意味で人間の言葉を理解し、それをもとに新たなアイデアを生み出すことはできないからだ。

 人間と同じ、もしくはそれ以上のレベルで与えられた情報を理解・咀嚼し、状況に応じた対応ができるAIがAGIだ。自ら課題を見つけ出し、その解決のため自律的に能力を高めていくことができる。現在、そんな「万能型」とも言える人工知能の開発が進んでいる。

難航する「強いAI」開発。壁となるのは?

 今、世の中で「AI」と呼ばれているものは特化型AIであり、汎用型であるAGIとは別のものだ。残念ながらAGIは未だ研究段階であり、実現にはもうしばらく時間がかかると目されている。一体何が実現の障壁になっているのだろうか?

 技術的な面では数多くのブレイクスルーが必要とされているが、ここでは2011年から2016年にかけて国立情報学研究所が中心となって行っていた「ロボットは東大に入れるか」プロジェクトを紹介したい。その名の通り、東京大学の試験を突破できる「東ロボくん」というAIを研究開発するプロジェクトだ。AGIを作るプロジェクトではないのだが、その歩みからはAGIの実現がいかに難しいかが察せられる。

 同プロジェクトの目標は2016年までに大学入試センター試験で高得点をマークすること、2021年に東京大学の入学試験を突破することだったが、2016年11月8日に東大合格を断念することが発表されている。東ロボくんの成績は現役高校生の8割を上回るまでに向上したが、東大合格に必要とされる上位1%以上にはなれないと判断されたのだ。その理由として、プロジェクトディレクターである国立情報学研究所の新井紀子教授は「読解力に問題がある」点を挙げている。

 前提条件を理解した上で問題文を読み、人間であれば知っていて当然の社会常識等も踏まえた上で、求められている解答を導き出す。これは何も現代文に限ったことではない。一度同プロジェクトのHPを見て頂きたいのだが、そちらに公表されている教科別の研究活動内容を見ても、各チームが「問題文の意味を理解させる」ことに苦心していることが伺える。

 繰り返すが東ロボくんは「試験問題を解く」ことに特化したAIであり、AGIではない。しかし、「人間のような思考回路」に読解力は必要不可欠だ。東ロボくんの失敗からは「自我を持ち、人間のように自律的に思考する人工知能」の実現がいかに難しいかがよく分かる。