
前回のコラム「ChatGPTの予測能力を爆上げするプロンプトが判明、「物語プロンプト」とはいったい何か?」では、物語形式のプロンプトを活用することで、ChatGPTの予測能力が向上するという話を紹介した。今回は、プロンプトを巡るもう一つの研究をお伝えする。(小林 啓倫:経営コンサルタント)
感情的なプロンプトのマイナス効果
すっかり定着した感のある生成AI。仕事で使っているという人も多いだろう。もっとも、重要なタスクで生成AIを使っていると、思うような回答が返ってこなかったときに、ついイライラしてしまうのではないだろうか。
そんな場合でも、プロンプトに感情を込めてはならない。感情、特にネガティブな感情が含まれるプロンプトは、生成AIの回答精度を下げ、偏った答え(バイアス)が出やすくなるという研究結果が発表されている。
これからご説明する論文は、Joyspace Technologiesという米国のAIプラットフォーム開発企業の研究者らが発表したものだ。5つの主要なLLM(大規模言語モデル、生成AIの頭脳となる技術)を対象に、さまざまなプロンプトを入力して応答を比較している。
その結果、プロンプトに込められる感情は、モデルの応答に著しく影響を与えることが明らかになったという。中でも否定的なプロンプトは事実の正確性を低下させ、バイアスを増幅させることが多いというのだ。
なぜ機械が感情に左右されてしまうのか。
現代のAI、特に生成AIの大部分は、機械に大量のデータを読み込ませて「学習」させることで開発されている。その学習に用いられるデータは、私たち人間が作成したものだ。そこにはさまざまな感情が込められているため、機械は入力されたコンテンツの内容だけでなく、感情的なニュアンスも読み取って学習してしまう。
言い換えれば、プロンプト内の感情は、生成AIの振る舞いを左右する大きな要因となり得るのだ。
特に高い精度の回答が求められる場面で、人間の入力するプロンプトが感情的すぎると、AIが事実を曲解する恐れがある。一方で、冷静で客観的な口調のプロンプトは、AIに余計なバイアスを与えずに済むため、より安定した品質の回答を引き出しやすくなる。
実際の実験結果を見てみよう。