興味深いニュースが飛び込んできたのは2016年8月のことだ。東京大学医科学研究所が、自然言語を理解できるWatsonの貢献度の大きさを物語る発表をした。

 発表によると、急性骨髄性白血病と診断されたある60歳代の女性患者は、2種類の抗がん剤治療を半年間受けていたが改善が見られなかった。しかし、がんに関する論文2000万件以上をWatsonに学習させ、女性患者の病状から診断させたところ、約10分で病名と治療法を推定した。そして医師がWatsonの判断に同意して治療を行ったところ、患者の容体が回復して退院するまでに至ったという。

 もちろん、この一件だけを取り上げて、コンピュータが医師に変わってすべての病気と治療法を特定するようになると考えるのは早計だ。そもそも診察と診断は医師が行うべきものである。だが、コンピュータが主治医の診察をアドバイスして助けたり、セカンド・オピニオン(違う医師による第2の見解)として診断の参考となる情報を提供したりするといった使い方はすでに実用的な水準に達しつつあると言えよう。

コールセンターのオペレータを手助け

 人間の言葉が理解できるWatsonは、コールセンターのオペレータの負担も軽減している。例えば、Watsonの活用を公表しているみずほ銀行では、200席以上の規模のコールセンターでWatsonがオペレータの作業を“手助け”している。

みずほ銀行のコールセンターにおけるIBM Watsonの活用イメージ(YouTubeより)

 問い合わせにオペレータが応対する点では一般的なコールセンターと変わらない。違うのは、顧客との会話をWatsonが聞いている点だ。