ChatGPTなどの生成AI(人工知能)をビジネスの現場で活用しようとする企業が増えている。さまざまなメリットを生む一方で、リスクも指摘される。東京大学情報基盤センターの山肩洋子教授は、生成AIの仕組みを理解するためにアカデミア(学界)との連携も有効だと説く。その活用方法などについて聞いた。
生成AIがビジネスツールへ急成長
――ChatGPTをはじめとする生成AIの普及がビジネスの現場で急速に進んでいます。短期間でビジネスツールとして成長している要因はどこにあるのでしょうか。
山肩洋子氏(以下敬称略) 人が書いたり話したりする言葉をコンピューターで処理することを「自然言語処理(Natural Language Processing、NLP)」と呼びます。転機となったのは2018年にGoogleが自然言語処理モデル「BERT(Bidirectional Encoder Representations from Transformers)」を公開したことです。
それまで企業が機械学習を利用しようとすると、データの収集やモデルの学習などを自前で行う必要がありました。つまり、「試しに使ってみる」ということができるものではなかった。ところがBERTには、汎用性が高いという大きな特長がありました。BERTの登場によってそれまでは難しかったことが試せるようになり、機械学習がビジネスに使えるという認識が広がったと思います。
また、BERTを含む自然言語処理モデルにはもう1つ特長があります。「Neural scaling law(ニューラル・スケール則)」と呼ばれるものです。従来、アカデミアの世界では、データを増やしてもある程度の精度まで上がると飽和するというのが常識でした。ところが、自然言語処理モデルの性能は、パラメータ数、学習データ数、および学習にかける時間のべき乗に従うということが発表されました。つまり、無限に精度が高まるのです。これは大きな変革でした。
――ポテンシャルの高さが期待される一方で、リスクを懸念する声もあります。
山肩 オープンAI社のChatGPTなどは、コードが書けない人でも簡単に利用できます。ただし、そこが怖いところでもあります。ChatGPTはソースコードを公開していません。ブラックボックスです。企業にとっては個人情報や顧客情報などが流出するのではないかと危惧するところでしょう。
また、AIには公平性やバイアス(偏見)など倫理面でのリスクもあります。このあたりは文化依存性が強いところであり、他国では容認されているような表現が日本では好ましくないという場合もあります。
政府も「AI事業者ガイドライン」など、AIに関する事業者向けの指針の策定を進めているところですが、国に任せ切りにするのではなく、自社なりのガイドライン化を進めていく必要があります。
いずれにしても、他国のサービスを使い続けることにはリスクがあります。国内のサービスや、オンプレミス(自社所有)のような仕組みを早急に用意する必要があります。