(英エコノミスト誌 2023年4月8日号)
大規模言語モデルの台頭で問題がさらに深刻になる恐れがある。
現代の人工知能(AI)システムの土台となるアルゴリズムは、その訓練に大量のデータを必要とする。
データの大半はオープンウエブ(広く公開されている規格で作成され、容易に閲覧できるウエブサイトのこと)で収集されている。
残念ながら、それゆえにAIは「データ・ポイズニング」として知られるサイバー攻撃を受けやすくなっている。
データ・ポイズニングとは、アルゴリズムが有害な行動や望ましくない動きを学習するように、訓練用データを改竄したり異質な情報を追加したりする攻撃のことだ。
本物の毒と同じように、被害がもたらされて初めて汚染が分かる場合もある。
大規模言語モデルの落とし穴
データ・ポイズニングという概念自体は新しいものではない。
2017年には、そのような操作を施すことで自動運転車のコンピュータービジョン(映像解析技術)システムに「止まれ」の標識を速度制限の標識と誤認識させられることが、研究で実証されている。
だが、その時点では、現実の世界でそのような策略がどの程度実行可能なのかはっきりしなかった。
安全が何よりも求められる機械学習システムの訓練は、人が収集・分類したクローズド(非公開)なデータセットで行うのが普通であり、毒されたデータがその過程をすり抜けることはないだろうと米ノースウェスタン大学のコンピューター科学者アリーナ・オプラ氏は語る。
しかし、大規模言語モデル(LLM)で動いている「ChatGPT(チャットGPT)」のような生成AIツールや画像生成システム「DALL-E 2(ダリ・ツー)」が最近台頭していることから、企業はオープンインターネットから直接、それも大抵は無差別にかき集めた大きなデータの宝庫をアルゴリズムの訓練に使い始めている。
これにより、理屈の上ではインターネットに接続していれば誰でも「デジタルの毒」を盛ることができるようになり、AI生成物はその毒の被害に遭いやすくなる、とスイス連邦工科大学チューリッヒ校のコンピューター科学者フロリアン・トレイマー氏は指摘する。