人間のフェイク検出精度はわずか24.5%
「うちはIT企業じゃないし、リモートワークも実施していないから、最悪、実際に会社で働いてもらうタイミングで確認できる」と感じた人もいるかもしれない。確かにその通りだ。
しかし前述のBlindによる2025年のアンケート調査結果が示している通り、既に無視できない割合の求職者たちが、採用プロセスを「サポート」してもらうためにAIを「利用」している。
もちろん、その多くは小手先のテクニックレベルの話だろう。しかしAIによって、求職者が自らの能力を大幅に偽装できる状況では、「選考段階では優秀だと思っていた人物が、実際には自社にふさわしくない能力や経歴の持ち主だった」などという事態がいつ起きてもおかしくない。
そして、本当に優秀な人材の獲得の障害になるという点で、AI採用詐欺は、どの企業にとっても深刻な問題になり得る。
それでも「いや、自分なら怪しいと気づけるはずだ」と感じたのだとしたら、次のデータを確認してほしい。
Reco.aiのレポートによれば、高品質なディープフェイクに対する人間の検出精度は24.5%にとどまる。つまり、素人目には4回のうち3回以上は「本物」に見えてしまうということだ。
CyberNewsが集計したAIインシデントデータベースによれば、2025年に記録された346件のAIインシデントのうち、179件がディープフェイク(音声・映像・画像の偽造コンテンツ)を使ったものだった。
フロリダのある夫婦はイーロン・マスクを模したディープフェイクによる詐欺で4万5000ドルを失い、英国の女性は俳優のジェイソン・モモアを装ったロマンス詐欺で50万ポンドを騙し取られた。同レポートはディープフェイク主導の詐欺が2025年第1四半期だけで2億ドル超の損失を引き起こしたと報告している。
Experianのチーフイノベーション・オフィサー、Kathleen Petersは「技術は詐欺の進化を加速させており、より巧妙で検知困難なものになっている」と指摘し、2026年がAI主導の詐欺における「転換点」になると警告している。同社の調査では、ビジネスリーダーの72%が「AIによる詐欺とディープフェイクが今年の最大の業務課題になる」と考えていると回答している。
採用担当者が直面するのは、単に「騙されやすい面接官の問題」ではない。構造的な問題だ。現在の採用プロセスは「対面に基づく信頼」を前提に設計されており、すべてが偽造可能な時代への適応がまだできていないのである。