管理対象がIT資産から意思決定と行動に広がる
シャドーITであれシャドーAIであれ、問題の本質は「ツールの無断利用」だった。つまり最後に意思決定し、責任を負い、実行ボタンを押すのは人間だという前提が残っていた。ところが、シャドーエージェントではこの前提が大きく崩れている。
AIエージェントは自律的に動作可能なAIアプリケーションで、冒頭の経理担当者の事例のように、ユーザーが簡単な指示を与えるだけで、あとはアプリ側で複雑なタスクを柔軟に遂行してくれる。
生成AIが文章を作る「賢い道具」だとしたら、AIエージェントは、複数の手順を組み立てて仕事を前へ進める「従業員に代わる存在」へと変わりつつある。
Google Cloudの「AI agent trends 2026」では、「単発のプロンプト(指示)」の時代が終わり、AIが複雑な業務フローを(半)自律的に編成していく「エージェントの飛躍」が起きていると表現している。
この流れは、従来の自動化とも異なる。たとえばRPA(人間が使用するUIから定型作業を自動化できるアプリケーション)は、あらかじめ決めた手順をそのまま繰り返すに過ぎない。いわば「与えられた台本の通りに演技する」ような存在だ。想定外の入力が来れば止まるし、判断の余地も小さい。
対してAIエージェントは、目的を達成するために手順を変えながら進む。状況に応じて柔軟に動くことができるため、言うなれば台本にない「アドリブ」も得意だ。しかしそれは、「アプリケーションの挙動を最終的に決めるのは人間の従業員である」という前提が崩れることを意味している。
もうひとつ注意しなければならないのは、AIエージェントが使用されている環境では、管理対象が「IT資産」だけでなく「意思決定と行動」も加わるという点だ。
シャドーITでは、未承認の外部サービスにデータが保存され、所在が追えなくなることが主な問題だった。シャドーAIでは、外部サービスに入力した情報がどのように扱われるか分からないまま、文章や要約が生成されることが問題になった。
それに対して、シャドーエージェントでは、データの保存や生成にとどまらず、社内システムや外部サービスを操作する形での「実行」が発生する。つまり「会社が把握していない意思決定主体が、会社の権限で仕事を代行する」状態が生まれるわけである。
ここまで来ると、従来の「ツールを禁止する」や「利用を申請させる」といった発想だけでは間に合わない。