ChatGPTが書いた要約は、知的ではないが信用・信頼できる
被験者たちは、ChatGPTが書いた要約に対して、それを書いた「人物」がより信用・信頼できると回答する傾向が見られたが、知性については低く評価した。つまりChatGPTが書いた要約は、知的な文章ではないものの、信用・信頼できると見なされたのである。
また皮肉なことに、被験者たちはChatGPTの要約の方が人間によって書かれたと信じる傾向があり、人間が書いた複雑な要約の方が、AIが書いたと信じる傾向が見られたそうである。
前述の通り、科学コミュニケーションの目的は、科学的知識の内容を細部まで正確に伝えることではなく、それを一般の人々に理解してもらい、正しい知識として信用してもらうことだ。
であれば、たとえ知的に感じられなかったとしても、より信用されるChatGPTの文章は、科学コミュニケーションにとって望ましいものと言えるだろう。
もちろん科学者自身が、自らの持つ科学的知識を、自らの言葉で一般の人々に向けて発信するというのが望ましい状況であることは違いない。しかし当然ながら、研究者は研究を行うのが本業であり、コミュニケーションスキルを磨くのに時間が取られてしまっては、社会にとって損失になりかねない。
そこを生成AIが補足できるのであれば、研究者にとってプラスとなるだけでなく、陰謀論や社会の断絶といった問題が回避できるという点で、社会にとっても大きなメリットだ。
技術は中立であり、悪人が誤った科学的知識を広めるために、生成AIを悪用するというケースもあるだろう。そうした事態を回避する検討を進めつつ、科学者たちのコミュニケーションを支援するツールとして生成AIが進化・定着することを期待したい。
【小林啓倫の生成AI事件簿】
◎
◎ロボットの導入で離職率が増加?ロボットとの協業で疲弊していく人間にどう対処するか?
◎Googleは対話型AI「Bard」のミスで時価総額1000億ドルが吹き飛ぶ、現実味を帯びる生成AI倒産
◎どんどん賢くなる生成AI、最新の道徳チューリングテストが明らかにしたAIのモラル
◎ダークウェブでやり取りされる小児性愛者向けマニュアル、英裁判所では性犯罪者の生成AI利用を禁止する措置
◎“大川隆法化”し始めたAIサービス、「ゴーストAI」でリアルに実現するイタコ的世界
◎【生成AI事件簿】ヒトラーの人格を再現したチャットボットも、AIで強化される右派・保守系SNSのヤバすぎる言論空間
◎Amazonにあふれる「インスタント伝記」、亡くなった有名人の伝記を生成AIに書かせる“作家”が急増
◎未来予測は無理だとしても、ChatGPTに人間の予測精度を向上させることはできるのでは?そんな仮説で進めた実験結果
◎全米が震撼!Xで拡散された超大物アイドルのディープフェイク・ポルノの衝撃
◎ニューヨーク・タイムズも激怒した、コピペ同然な生成AIの剽窃的アウトプット
◎診断での誤答率はまさかの8割強、なぜChatGPTはヤブ医者に成り下がったのか
◎倫理的・社会的に許容できない「人の死期を予測するAI」、実現は目と鼻の先
◎予測精度がまさかの1%以下だった犯罪発生予測AI、警察のAI利用に潜む不安
◎映像に証拠能力はなくなる?生成AIの登場で困難になる「事実」の把握
◎生成AIの幻覚を利用した犯罪をどう防ぐか、早急に必要なハルシネーション研究
(ほか多数)
【小林 啓倫】
経営コンサルタント。1973年東京都生まれ。獨協大学卒、筑波大学大学院修士課程修了。
システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後コンサルティングファーム、国内ベンチャー企業、大手メーカー等で先端テクノロジーを活用した事業開発に取り組む。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たなビジネス』『ドローン・ビジネスの衝撃』『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(草思社)、『データ・アナリティクス3.0』(日経BP)、『情報セキュリティの敗北史』(白揚社)など多数。先端テクノロジーのビジネス活用に関するセミナーも多数手がける。
Twitter: @akihito
Facebook: http://www.facebook.com/akihito.kobayashi