- 今年10月、米ワシントンポスト紙がAmazonのとあるサービスに関するスクープ記事を掲載した。2020年の大統領選に関して、トランプ氏の主張をなぞるように「『大規模な不正選挙によって盗まれた』と主張した」という記事だ。
- 人間からの自然言語による指示を理解して、その答えとなるような文章や音声などを生成する生成AIだが、学習するデータに不適切な内容の情報が紛れ込むことも増えており、生成AIによる不適切な回答を避けるのは想像以上に難しい。
- 生成AIにわざと誤った情報を学習させる「データ・ポインズニング」のリスクも高まっており、意図的なプロパガンダや情報操作の可能性に留意しなければならない。
(小林 啓倫:経営コンサルタント)
今から3年前の2020年、米国で行われた大統領選挙をめぐって大きな騒動が起きたことは記憶に新しい。
トランプ前大統領の敗北を認めようとしない同氏の支持者たちが、「選挙は盗まれた(選挙に不正があり本当ならトランプ候補が勝っていた)」と主張し、翌2021年1月6日(現地時間)に米連邦議会の議事堂に乱入するまでに至ったのである。
この事件では警察官1人と支持者4人が死亡しており、陰謀論の感染力や扇動力がいかに強力なものかを示すこととなった。
この「選挙は盗まれた」という訴えは、その後さまざまな報道機関や組織によって行われた調査によって繰り返し否定されている。しかし意図的かどうかを問わず、それを主張する人々はまだ存在しており、ネット上には同じ陰謀論を唱えるサイトや記事が至るところに見られる状況だ。
もちろん、それは少数派であり、右派的か左派的かという政治思想上の違いはあれど、大手の報道機関から発信される情報に接していれば、少なくとも過激な陰謀論に接してしまうリスクはない──。これまではそう思われてきた。
だが、人々が情報を入手するテクノロジーやデバイス、メディア等が変化しつつあることで、意外なリスクが生じてきている。
今年10月、米ワシントンポスト紙がAmazonのとあるサービスに関するスクープ記事を掲載した。そのサービスとは、同社が開発した音声AI「アレクサ(Alexa)」である。
◎Amazon’s Alexa has been claiming the 2020 election was stolen