.png)
社員がChatGPTに顧客の個人情報を貼り付けて要約させている。議事録全文を無料の生成AIに投げて自動整理させている。このような話が、特殊なケースでなくなっています。ある調査では、日本のナレッジワーカーの7割超が何らかの未承認AIツールを業務で使っており、企業が把握している実態はそのうちの3割程度にとどまるとも報告されています。
多くの情シス担当者が直面する最初の壁は、「ChatGPTを禁止する」という措置が機能しないという現実です。禁止令を出しても、社員はClaude・Gemini・Perplexityといった別のAIサービスを使い始めます。「AIを使わない」という選択肢が現場にとって非現実的になった今、禁止だけでは対策になりません。
本記事では、シャドーAI対策を「何から手をつければいいか」で迷わないよう、6つのステップに整理して実践手順を解説します。シャドーAIの定義・リスクについては[内部リンク: シャドーAIとは]・[内部リンク: シャドーAI リスク]を参照してください。シャドーAIはシャドーITの発展形であるため、シャドーIT対策全般についてはシャドーIT 対策も合わせてご確認ください。
シャドーAIの問題が急浮上した背景を理解することが、対策の設計に役立ちます。
2022年末のChatGPT公開以降、生成AIサービスの普及速度は他のどのSaaSカテゴリより速いです。無料で試せる・アカウント登録から数分で使い始められる・ブラウザだけで動くという特性が、シャドーITとしての普及を加速させました。
従業員の70%以上が何らかの形で業務にAIツールを使用しているにも関わらず、企業が把握している利用実態は30%程度に留まっているという報告があります。この「把握のギャップ」が、シャドーAI問題の実態です。業務効率化のためにAIを使うことが当たり前になった一方で、情シスの管理が追いついていない状況が生まれています。
生成AIサービスを特定のURLでブロックする対策は、一見シンプルに見えますが機能しません。ChatGPTをブロックしても、Claude・Gemini・Grok・Perplexityといった代替サービスは存在し続けます。ブラウザ拡張機能型のAIアシスタントや、既存のSaaSに組み込まれたAI機能(Google DocsのGemini統合、Microsoft 365 CopilotのFree版など)は、URLブロックでは対応できません。
また、「AIを使ってはいけない」という制約は、生産性向上のプレッシャーを受けている現場担当者にとって受け入れにくい制約です。禁止令は形式的に遵守されるように見えて、水面下での利用を促進するだけという皮肉な結果になりがちです。
シャドーAI対策の本質は、「AIを使わせないこと」ではなく「安全なAIの使い方を整備すること」にあります。
参考URL: https://www.ntt.com/bizon/shadow-ai.html
シャドーAI対策は、シャドーIT対策と同様に継続的なサイクルとして設計することが重要です。以下の6ステップが、現場で実効性のある対策体制の基本フレームになります。
対策の起点は「今、どのAIツールが・誰に・どのように使われているか」を把握することです。ネットワークログの分析・ブラウザ拡張機能によるSaaS利用把握・従業員アンケートを組み合わせて、現在組織内で使われているAIツールを洗い出します。
この段階では「発見したものを責める」のではなく「実態を把握する」ことを目的として進めることが重要です。現場が安心して申告できる雰囲気をつくることが、より正確な実態把握につながります。
AIツールには、一般的なSaaSとは異なる固有のリスク特性があります。特にデータの学習利用・情報の一方向的な送信・ハルシネーション(誤情報の生成)という3点は、AIツール固有のリスクです。
リスク評価の軸として、以下を確認します。
リスク評価の結果をもとに、AIツールの利用に関するガバナンスポリシーを策定します。「承認済みのAIツールリスト」「禁止されるAIツールまたは利用シーン」「入力してはいけないデータの分類」「ポリシー違反時の対応フロー」の4点を明確にします。
ポリシーは「禁止事項の列挙」だけでなく、「何のためのポリシーか」という目的と「承認AIを使えばどんな業務効率化ができるか」という前向きな内容を含めることが、現場への浸透を高めます。
シャドーAI対策で最も重要なステップです。「AIを使いたい」という現場のニーズを正規のルートで満たせる状態をつくることが、シャドーAIの根本的な抑止力になります。
企業向けのAIプラン(ChatGPT Enterpriseなど)は、個人向け無料プランとは異なり、入力データの学習利用が行われない設定が標準になっているものがあります。Microsoft 365 Copilotは既存の365ライセンスに追加する形で導入でき、組織のデータガバナンスの範囲内でAIを使える環境を整備できます。
「禁止」だけ伝えても、従業員はなぜ禁止なのかを理解できません。「AIサービスは入力したデータがサーバーに送信される仕組みになっている」「無料プランでは学習に使われる可能性がある」「では何を使えばよいか」という流れで、具体的な代替手段とセットで説明することが必要です。
研修の内容は、AIツールの進化とともに定期的にアップデートが必要です。年1回の静的な研修ではなく、新しいAIサービスが登場するたびに簡単な周知を行うサイクルを組み込みます。
AIサービスは他のSaaSカテゴリより新陳代謝が速いです。半年前に承認したサービスの利用規約が変更されているケースも発生します。CASBやSaaS管理ツールを使った継続的なモニタリングと、利用規約の定期確認が必要です。
また、業務部門から「このAIツールを使いたい」という申請が来た場合に、迅速にリスク評価・承認判断できる体制を整えることで、シャドーAIの発生を構造的に防げます。
参考URL: https://www.lanscope.jp/blogs/it_asset_management_emcloud_blog/20251022_29677/
シャドーAI対策の起点になる可視化の具体的な手法を整理します。シャドーIT検出の手法と重複する部分がありますが、AIサービスに特有の検出のポイントも存在します。
社内ネットワークを経由した通信ログを分析し、主要な生成AIサービスへのアクセスを確認します。確認対象として把握しておくべき主なAIサービスのドメインには以下があります。
CASBを使っている場合、多くのCASBソリューションがAIサービスのカテゴリ分類と専用のリスクスコアリングを提供しています。AIサービスへのアクセス量・利用ユーザー・データ転送量を可視化できます。
ただし、VPN未接続の在宅勤務中のアクセスは捕捉できない限界があります。テレワーク環境ではブラウザ拡張機能との組み合わせが必要です。
Josysのブラウザ拡張機能は、業務端末で使われているSaaSと同様に、AIサービスへのアクセスも自動記録します。VPN接続の有無に関わらず機能するため、テレワーク環境での検出に有効です。
検出されたAIサービスのリストを見れば、「組織内でどのAIサービスが・どの程度の頻度で使われているか」を把握できます。承認済みAIサービスリストと照合することで、未承認のシャドーAIを特定できます。詳細な検出手法についてはシャドーIT 検出 方法を参照してください。
匿名性を担保した形で「業務でどのAIツールを使っているか」を自己申告してもらうアンケートが、初期段階の実態把握に有効です。「申告しても問題を問われない」「むしろ申告してくれた方が情シスとして対応しやすい」というメッセージを伝えることが、正直な回答を引き出す鍵です。
また、新しいAIサービスを使いたい場合に申請できるフォームを設けることで、シャドーAIの発生をチャネル化することができます。「申請して承認を待つより、今日から使える無料サービスを使う」という状況を解消するには、申請から承認までのリードタイムを短縮することが重要です。
参考URL: https://www.ctc.jp/column/shadow-ai.html
AIガバナンスポリシーは、単なる禁止事項の列挙ではなく、従業員が「何をしていいか・何をしてはいけないか・迷った時はどうするか」を判断できる内容にすることが重要です。
「未承認のAIツールの業務利用は禁止」という抽象的な記述は機能しません。従業員が「ChatGPTは使っていいのか」「Geminiはどうか」と迷わないよう、具体的なサービス名で承認・禁止を明示します。
記述例:
承認済みAI(利用可):
条件付き許可:
禁止:
承認済みAIであっても、入力してはいけないデータの分類を明確にすることが必要です。情報の機密度に応じた分類と、具体的な禁止例を示します。
絶対禁止:
要注意(慎重に扱う):
使用可能:
ポリシー違反が発生した場合、対応フローをあらかじめ決めておくことで、発覚時の対応がスムーズになります。違反の重大性(機密情報が含まれていたかどうか等)に応じた対応レベルを設定します。
また、「誤って入力してしまった場合はすぐに報告する」という報告しやすい文化をつくることが重要です。隠蔽が最も大きな被害につながります。
参考URL: https://www.aeyescan.jp/blog/shadow-ai-security-risks/
シャドーAI対策の核心は、「禁止すること」より「安全なAIの使い方を整備すること」にあります。
企業向けAIプランを選定する際の主要な評価基準を整理します。
データプライバシー:入力データがモデルの学習に使われないことを利用規約で保証しているかどうか。学習利用の有無は、無料プランと企業向けプランで大きく異なります。
データの保存場所:入力したデータがどの国のサーバーに保存されるか。規制上の要件(GDPR等)との整合性を確認します。
セキュリティ認証:SOC 2 Type II・ISO 27001等の認証取得状況。エンタープライズ向けの認証が取得されているかどうかが判断基準になります。
アクセス管理:SSOとの統合・ユーザー管理の仕組み・利用ログの提供有無。情シスが一元管理できる体制を整備できるかどうかを確認します。
Microsoft 365を全社導入している組織の場合、Microsoft 365 Copilotは最も自然な承認AIの選択肢の一つです。Microsoft Teamsの会話・SharePointのドキュメント・Outlookのメールといった社内データと統合されたAI機能を、組織のMicrosoft 365テナント内で使用できます。
入力したデータはMicrosoftのモデルの学習には使われず、組織のテナント内にのみ保存されます。既存のMicrosoft 365管理センターでユーザー管理・ポリシー設定ができるため、情シスの管理負荷が低い選択肢です。
機密情報を扱う業務でAIを使いたい場合の選択肢として、社内環境に構築するLLM(大規模言語モデル)があります。外部のAIサービスにデータを送信せずに、社内の閉じた環境でAIを使えるため、情報漏洩リスクを最小化できます。
ただし、社内LLMの構築・運用にはインフラコストとエンジニアリングリソースが必要です。従業員500名規模以上の中堅〜大企業で、機密情報を扱う業務でのAI活用ニーズが高い場合に検討する選択肢です。
参考URL: https://info.nextmode.co.jp/blog/-netskope-shadow-ai-nextmode-blog
ポリシーは策定するだけでは機能しません。従業員が「なぜそのルールがあるのか」「どう行動すればよいのか」を理解して初めて、ポリシーは実効性を持ちます。
シャドーAIの研修で多くの組織が犯す失敗は、「禁止事項の列挙」で終わることです。「ChatGPTに顧客情報を貼り付けてはいけない」という禁止事項だけを伝えると、従業員は「AIが使えなくなった」という印象を持ちます。
効果的な研修の構成:
AIサービスの進化速度は速く、今年の研修内容が来年には陳腐化している可能性があります。研修コンテンツを年1回全面更新するより、新しいAIサービスが登場するたびに簡単な周知(Slackのお知らせ・社内ポータルへの投稿)を行うサイクルを組み込む方が実態に合っています。
また、「社員から『このAIサービスを使いたい』という申請が来た場合に、情シスが迅速に評価・回答できる体制」が整っていることを、研修の中で伝えることも重要です。申請フローの存在を知っていることが、シャドーAIの防止につながります。
参考URL: https://www.digitalsales.alsok.co.jp/col_shadow-ai
AIサービスは他のSaaSカテゴリより新陳代謝が速いため、一度整備したポリシーや承認リストをそのまま使い続けることはリスクになります。
月に1〜2種類のペースで新しい生成AIサービスが登場しています。承認済みAIサービスの利用規約は定期的に変更されることがあります。以下の仕組みを整えることで、この変化への対応を継続できます。
AIサービス申請・評価フロー:社員が新しいAIツールを使いたい場合に申請できるフォームを設け、情シスが一定の基準でリスク評価・承認判断できる体制を整備します。申請から承認まで3〜5営業日を目標にすることで、「申請より自分で使い始める方が早い」という状況を解消します。
承認済みリストの四半期更新:承認済みAIツールのリストを四半期ごとに見直し、利用規約の変更・新たなセキュリティインシデントの発生・より優れた代替手段の出現などを確認します。
CASBソリューションは、AIサービスへのアクセスをリアルタイムで監視し、未承認のAIサービスが使われた際にアラートを発報できます。また、特定のAIサービスへの機密データのアップロードをブロックする機能を持つものもあります。
Josysのようなブラウザ拡張機能を使ったSaaS管理ツールは、CASBと組み合わせることで、テレワーク環境を含めた包括的なAI利用状況の把握を実現できます。
参考URL: https://www.psi.co.jp/topics/2026/nl_20260216_1.html
シャドーAI対策を手動で運用し続けることには、情シスの工数面での限界があります。Josysは、AIサービスを含むSaaS全体の利用状況を可視化・管理する機能を提供しています。
Josysのブラウザ拡張機能は、ChatGPT・Claude・Geminiといった生成AIサービスへのアクセスを、他のSaaSと同様に自動記録します。情シスはダッシュボードから、組織内でどのAIサービスが使われているかを一元的に把握できます。
VPN接続の有無に関わらず機能するため、テレワーク環境でのシャドーAI検出にも対応しています。定期的な手動確認なしに、継続的な可視化が実現します。
事前に登録した承認済みAIサービスリストと実際の利用状況を自動で照合し、未承認のAIサービスが使われた際にアラートを発報します。情シスが毎日ログを確認しなくても、新たなシャドーAIが発生した時点で把握できる体制を整えます。
シャドーITとシャドーAIをまとめて管理できるため、生成AI時代のIT管理基盤として機能します。
参考URL: https://josys.com/jp/blog/2024-05-23-with-the-rise-of-ai-is-your-it-team-taking-action
Q. 生成AIの業務利用を全面禁止にしてはいけないですか?
全面禁止は、現場の業務効率化の機会を失わせる上に、水面下での利用を促進するだけです。承認済みAIツールを整備した上で、安全な利用環境を提供することが現実的な対応です。
Q. ChatGPT Enterpriseなら安全に使えますか?
ChatGPT EnterpriseはOpenAIが入力データを学習に使用しないことを明言しており、エンタープライズ向けのセキュリティ機能も充実しています。ただし、AIサービスを使う際の「何を入力するか」というルール整備は、どのサービスを使う場合でも必要です。
Q. 社内LLMの構築は中小企業でも現実的ですか?
従業員数が500名以下の組織では、社内LLMの構築・運用コスト(サーバー・保守・エンジニアリングリソース)が負担になるケースが多いです。まずはChatGPT EnterpriseやMicrosoft 365 Copilotのような企業向けプランの活用が現実的です。
Q. 従業員がポリシーに違反した場合、どう対応すればよいですか?
最初の違反については、ポリシーの周知不足や理解不足が原因であるケースが多いです。処罰よりも「なぜ問題なのか・どうすべきだったか」を伝える教育的な対応が、再発防止に効果的です。機密情報の漏洩が実際に発生した場合は、インシデント対応の手順に従い、セキュリティチームと連携した対応が必要です。
参考URL: https://www.jbsvc.co.jp/useful/security/shadow-ai.html
シャドーAI対策は、「ChatGPTを禁止する」という単純な措置では機能しません。現状の可視化・リスク評価・AIガバナンスポリシーの策定・承認済みAIツールの整備・従業員教育・継続的なモニタリングという6ステップのサイクルとして設計することが重要です。
最も重要な考え方は「AIを使わせないこと」ではなく「安全なAIの使い方を整備すること」です。現場のAI活用ニーズを正規のルートで満たせる状態をつくることが、シャドーAIの根本的な抑止力になります。
Josys 資料ダウンロードAI・SaaS利用の可視化とシャドーAI対策について、Josysの機能詳細を資料でご確認いただけます。Josys 製品資料をダウンロードする
Sign-up for a 14-day free trial and transform your IT operations.
