AIが用意した「完全犯罪ツールキット」

 採用詐欺の第1段階は、書類選考の突破だ。LLM(大規模言語モデル)を使えば、求人票の記載要件に合わせた「最適化された職務経歴書」を数分で生成できる。実在しないプロジェクト経歴も自然な文体で記述でき、求人企業が使う専門用語やキーワードを散りばめることで、応募書類のスクリーニングシステムを通過しやすくなる。

 第2段階は、コーディングテストなどの技術試験の突破だ。IT職の採用で一般的に行われるプログラミング試験も、Claude CodeやGitHub Copilotなどのコード生成AIを別端末で起動すれば、画面共有中であってもリアルタイムに回答を得ることができる。

 さらに「面接カンニング補助アプリ」と呼ばれるツールが登場している。面接官の質問を音声認識でリアルタイム分析し、最適回答を応募者の視界内に表示する機能を持つものまで存在する。

 テック系ニュースサイトBuilt Inの報道によれば、米国の匿名ビジネスSNS「Blind」が2025年に行ったアンケート調査では、米国の労働者の20%が面接中にAIをひそかに使用したと回答。回答者の半数以上が「AI支援が面接のスタンダードになりつつある」と答えたそうだ。

 第3段階が最も深刻な面接本番の代行だ。音声合成ツールは数秒のサンプル音声があれば任意の人物の声を模倣できる水準に達している。セキュリティ企業Reco.aiのレポートによれば、リアルタイムのボイスクローニング(実在する人物の音声の模倣)に必要な元音声サンプルはわずか3〜5秒だという。

 映像についても、たとえば「ビデオ通話に映る顔をリアルタイムで別人の顔に差し替える」というディープフェイクツールが、一般に利用できるサービスとして存在している。冒頭で紹介したArup事件で使われた技術は、今や特殊なものではなく、一般ユーザーが使えるレベルに降りてきているわけだ。

 そして第4段階、採用後の業務遂行である。採用後も実際の業務を海外の人間やAIエージェントに外注しながら、給与だけを受け取り続けるケースが米国で報告されている。このモデルが成立する背景にあるのは、リモートワーク環境では「誰が実際にキーボードを叩いているか」を確認する仕組みがそもそも存在しないという構造的な問題だ。