AIのリスクと可能性を示す4年間に?
他にも他の大統領令の序文にあたる箇所において、その稚拙な内容を理由に「絶対にAIによって書かれたものだ」と断言する声もあるのだが、実例を挙げるのはここまでにしておこう。
確かに、いまトランプ大統領が発布している大統領令には、生成AIによって生成された文章が含まれている可能性がありそうだが、そうだとして何が問題だと言えるだろうか?
生成AIを使うこと自体は問題ではない。逆にトランプ大統領がここまでスピーディーに大統領令を発布できているのが、生成AIを活用した結果であると言うのなら、それは行政や政治上の問題の解決を効率化しているというポジティブな意味に捉えられるだろう(彼の行っている政策がどのような観点から・どこまで評価できるのかは脇に置くとして)。
また文章表現が多少おかしかったり、幼稚だったりしても大きな影響はない。少なくとも「序文」の中で低レベルの文章が使われていても、国家の品格は下がるかもしれないが、本質的な問題はない。
問題は、マーク・ジョセフ・スターンが指摘しているように、その本文における指示内容が混乱をもたらす場合だ。米国という巨大な国家を操れるほどの大統領令に、どう解釈すれば良いか不明確だったり、あるいは恣意的に解釈できたりする文章が含まれていたら、それがどのような悪影響を及ぼすかは想像に難くない。
さらに問題なのは、仮にこれがAI生成の文章だとして、それがそのまま正式な大統領令の草案として提示され、署名されてしまっているという点だ。
前述の通り、大統領令が署名されるまでには、本来であればさまざまな人物のチェックや推敲が入る。署名する大統領自身も、できる限りそれを一読すべきだろう。このように多くの人々の目に触れる文章であるはずなのに、奇妙な箇所が残る形で署名まで行われてしまっているというのは、まともなチェックプロセスが機能していないという意味になる。
これまでさまざまな事例を通して見てきたように、生成AIが最悪の結果をもたらすのは、その使用者である人間が適切なチェックを怠った場合だ。
たとえば、よく引用される、米国でベテラン弁護士がChatGPTに頼って法廷に提出する文章を作成した結果、そこに「存在しない判例」を載せてしまったという事件では、その弁護士はChatGPTを使っているうちにすっかり信頼してしまい、内容をきちんと確認していなかったそうだ。
大統領とその側近たちが、まともなチェックをせずにさまざまな場所でAIを使っているのだとしたら――。第2次トランプ政権は、AIのリスクと可能性を、具体的な出来事や事件・事故を通じて示してくれる4年間になるのかもしれない。それができる限り、米国だけでなく、世界全体に悪影響を及ぼすものでないことを祈ろう。