ヒントン氏は、コンピューター上で人間の脳の神経回路を数学的に模倣する「ニューラルネットワーク」の研究を主導した人物。1972年、英エディンバラ大学の大学院生だった同氏はこのアイデアを支持して研究を進めた。1980年代、同氏は米カーネギーメロン大学のコンピュータサイエンスの教授だったが、その後カナダに移り、トロント大学で教鞭をとった。近年はグーグルで研究部門の副社長とエンジニアリングフェローを務めていた。

 ヒントン氏によれば、AIはしばしば、膨大なデータの中から予期しない振る舞いを学んでしまう。このことは、個人や企業がコンピューターコードを生成させるだけならば問題ない。しかしそのコードを実際に実行することを許可した場合は問題だと危惧している。完全自律型兵器(キラーロボット)の大規模実践配備が現実のものになると懸念を示している。

 AI専門家らはこの数年、AIが人類に危害を加える可能性について警鐘を鳴らしてきた。研究者の中には、この技術が制御不能になり、パンデミックや核戦争と同じくらい危険になる可能性があると考える人もいる。WSJによれば、より穏健に懸念を表明する研究者もいるが、それでも「AIはより厳しく規制されるべきだ」との考えを示している。

オープンAI「政府、市民社会、コミュニティーと連携する」

 一方、オープンAIは声明で「私たちは、最も能力が高く安全なAIシステムを提供してきた実績を誇りに思っており、リスクへの対処には科学的なアプローチが必要だと考えている」と述べた。「この技術の重要性を考えると、厳格な議論が不可欠であり、今後も世界の政府、市民社会、コミュニティーと連携していくつもりだ」(同社)

 現・元従業員らのグループは今回の書簡で、「AI企業に対して責任を追及できる立場にある人がおらず、強いて言うならそれは私たちかもしれない」と説明。政府がAI企業の広範にわたる行動を監視・監督していないという現状があるとした。加えて、懸念事項として「人間が自律型AIシステムの制御を失い、それが人類の絶滅につながる恐れがある」と主張した。

 従業員グループは具体的に、①従業員が匿名で懸念を通報できるようにすること、②内部告発者に対する報復を行わないこと、③従業員の発言を抑圧するような合意書に署名させないこと、を求めている。