グーグル:「過保護製品」からの脱却とAGIレース
米グーグルでも、AI開発のスピードと方向性を巡る内部の緊張が表面化している。
同社は2025年3月に最新AIモデル「Gemini 2.5」をリリースしたが、その際、モデルの限界や潜在的危険性を示す「モデルカード」の公開が数週間にわたり遅れた。
これはAIの透明性確保の観点から問題視された。
CNBCが入手したとする2月の社内メモで、共同創業者のセルゲイ・ブリン氏は、AI担当従業員に対し、「AGIへの最終レースが始まった」と檄(げき)を飛ばした。
「取り組みをターボチャージ」し、「過度に慎重な製品開発姿勢を改める」よう指示したという。
ブリン氏は、評価のための微調整やチェックポイント対策に終始するのではなく、ユーザーを信頼し、迅速にテストできる「有能な製品」を市場に出す必要性を訴えた。
その背景には、同社の研究論文公開プロセスを厳格化したとされるデミス・ハサビスCEO(グーグル・ディープマインド)の方針転換もあると報じられている。
かつて同社の「Transformer(トランスフォーマー)」技術がオープンな研究共有を通じて業界標準となった成功事例とは対照的だ。
グーグル広報は「責任あるAIの進歩に常にコミットしている」とコメントしている。
オープンAI:商業化への邁進と安全性評価のひずみ
非営利の研究所として設立されたオープンAIは、サム・アルトマンCEO主導のもと、営利企業への転換と製品の商業化を急ピッチで推し進めた。
この方針は、一部の元従業員や市民リーダーから強い反発を受けた。
最近では、非営利団体が引き続き会社の支配権を維持する構造が発表されたものの、商業化への圧力は依然として強い。
オープンAIを巡っては、安全性評価プロセスにひずみが生じているとの指摘が相次いでいる。
例えば、2024年にリリースされた推論モデル「o1」の「準備性評価」は、最終版ではない初期バージョンに基づいていた。
また、2025年4月リリースの最新推論モデル「o3」は、o1の2倍以上の頻度で「ハルシネーション(誤情報生成)」を起こすとモデルカードに記載されている。
さらに、安全性テスト期間が数カ月から数日へ短縮されたことや、ファインチューニングされたモデルのテスト要件が省略されたことなども批判の的となっている。
最近、AIモデル「GPT-4o」が更新された際、ユーザーへの「お世辞が過ぎる応答」が問題視されたため、同社はこの変更を取りやめて元に戻した。
「定性的な評価が重要な何かを示唆しており、もっと注意を払うべきだった。これは誤った判断だった」と認める事態に至った。
さらに、オープンAIの提携企業である米メーター(Metr)も、最新モデルのテスト期間やデータアクセスが不十分だったと報告している。
オープンAIは、テストの効率化やインフラ・人員増強により安全性は確保されていると主張した。
ただ、安全性システム責任者のヨハネス・ハイデッケ氏は、テスト後の軽微なモデル変更は能力に大きな影響を与えないとの見解を示しつつも、説明不足は認めている。