プライバシー設定
このサイトでは、第三者のウェブサイト追跡技術を使用して、当社のサービスを提供および継続的に改善し、ユーザーの興味に応じた広告を表示します。同意します。また、将来的に有効となる限り、いつでも同意を取り消したり、変更したりすることができます。
拒否
[すべて承認]
すべての記事

シャドーAI対策ガイド|情シスが取るべき6つの施策と実践手順

共有
コピー

社員がChatGPTに顧客の個人情報を貼り付けて要約させている。議事録全文を無料の生成AIに投げて自動整理させている。このような話が、特殊なケースでなくなっています。ある調査では、日本のナレッジワーカーの7割超が何らかの未承認AIツールを業務で使っており、企業が把握している実態はそのうちの3割程度にとどまるとも報告されています。

多くの情シス担当者が直面する最初の壁は、「ChatGPTを禁止する」という措置が機能しないという現実です。禁止令を出しても、社員はClaude・Gemini・Perplexityといった別のAIサービスを使い始めます。「AIを使わない」という選択肢が現場にとって非現実的になった今、禁止だけでは対策になりません。

本記事では、シャドーAI対策を「何から手をつければいいか」で迷わないよう、6つのステップに整理して実践手順を解説します。シャドーAIの定義・リスクについては[内部リンク: シャドーAIとは]・[内部リンク: シャドーAI リスク]を参照してください。シャドーAIはシャドーITの発展形であるため、シャドーIT対策全般についてはシャドーIT 対策も合わせてご確認ください。

シャドーAI対策が急務になった背景

シャドーAIの問題が急浮上した背景を理解することが、対策の設計に役立ちます。

従業員の7割超が未承認AIツールを業務利用する実態

2022年末のChatGPT公開以降、生成AIサービスの普及速度は他のどのSaaSカテゴリより速いです。無料で試せる・アカウント登録から数分で使い始められる・ブラウザだけで動くという特性が、シャドーITとしての普及を加速させました。

従業員の70%以上が何らかの形で業務にAIツールを使用しているにも関わらず、企業が把握している利用実態は30%程度に留まっているという報告があります。この「把握のギャップ」が、シャドーAI問題の実態です。業務効率化のためにAIを使うことが当たり前になった一方で、情シスの管理が追いついていない状況が生まれています。

「ChatGPT禁止」だけでは解決しない理由

生成AIサービスを特定のURLでブロックする対策は、一見シンプルに見えますが機能しません。ChatGPTをブロックしても、Claude・Gemini・Grok・Perplexityといった代替サービスは存在し続けます。ブラウザ拡張機能型のAIアシスタントや、既存のSaaSに組み込まれたAI機能(Google DocsのGemini統合、Microsoft 365 CopilotのFree版など)は、URLブロックでは対応できません。

また、「AIを使ってはいけない」という制約は、生産性向上のプレッシャーを受けている現場担当者にとって受け入れにくい制約です。禁止令は形式的に遵守されるように見えて、水面下での利用を促進するだけという皮肉な結果になりがちです。

シャドーAI対策の本質は、「AIを使わせないこと」ではなく「安全なAIの使い方を整備すること」にあります。

参考URL: https://www.ntt.com/bizon/shadow-ai.html

シャドーAI対策の全体像――6ステップで考える

シャドーAI対策は、シャドーIT対策と同様に継続的なサイクルとして設計することが重要です。以下の6ステップが、現場で実効性のある対策体制の基本フレームになります。

Step1 現状の可視化(どのAIが使われているかを把握する)

対策の起点は「今、どのAIツールが・誰に・どのように使われているか」を把握することです。ネットワークログの分析・ブラウザ拡張機能によるSaaS利用把握・従業員アンケートを組み合わせて、現在組織内で使われているAIツールを洗い出します。

この段階では「発見したものを責める」のではなく「実態を把握する」ことを目的として進めることが重要です。現場が安心して申告できる雰囲気をつくることが、より正確な実態把握につながります。

Step2 リスク評価(AIツールごとのリスク分類)

AIツールには、一般的なSaaSとは異なる固有のリスク特性があります。特にデータの学習利用・情報の一方向的な送信・ハルシネーション(誤情報の生成)という3点は、AIツール固有のリスクです。

リスク評価の軸として、以下を確認します。

  • 入力したデータがモデルの学習に使われるかどうか(利用規約の確認)
  • データが保存・処理されるサーバーの所在地
  • ベンダーのセキュリティ認証(SOC 2・ISO 27001等)の取得状況
  • 個人情報・機密情報の入力が想定される業務での利用可否

Step3 AIガバナンスポリシーの策定

リスク評価の結果をもとに、AIツールの利用に関するガバナンスポリシーを策定します。「承認済みのAIツールリスト」「禁止されるAIツールまたは利用シーン」「入力してはいけないデータの分類」「ポリシー違反時の対応フロー」の4点を明確にします。

ポリシーは「禁止事項の列挙」だけでなく、「何のためのポリシーか」という目的と「承認AIを使えばどんな業務効率化ができるか」という前向きな内容を含めることが、現場への浸透を高めます。

Step4 承認済みAIツールの整備と提供

シャドーAI対策で最も重要なステップです。「AIを使いたい」という現場のニーズを正規のルートで満たせる状態をつくることが、シャドーAIの根本的な抑止力になります。

企業向けのAIプラン(ChatGPT Enterpriseなど)は、個人向け無料プランとは異なり、入力データの学習利用が行われない設定が標準になっているものがあります。Microsoft 365 Copilotは既存の365ライセンスに追加する形で導入でき、組織のデータガバナンスの範囲内でAIを使える環境を整備できます。

Step5 従業員教育とAIリテラシーの向上

「禁止」だけ伝えても、従業員はなぜ禁止なのかを理解できません。「AIサービスは入力したデータがサーバーに送信される仕組みになっている」「無料プランでは学習に使われる可能性がある」「では何を使えばよいか」という流れで、具体的な代替手段とセットで説明することが必要です。

研修の内容は、AIツールの進化とともに定期的にアップデートが必要です。年1回の静的な研修ではなく、新しいAIサービスが登場するたびに簡単な周知を行うサイクルを組み込みます。

Step6 継続的なモニタリングとポリシー更新

AIサービスは他のSaaSカテゴリより新陳代謝が速いです。半年前に承認したサービスの利用規約が変更されているケースも発生します。CASBやSaaS管理ツールを使った継続的なモニタリングと、利用規約の定期確認が必要です。

また、業務部門から「このAIツールを使いたい」という申請が来た場合に、迅速にリスク評価・承認判断できる体制を整えることで、シャドーAIの発生を構造的に防げます。

参考URL: https://www.lanscope.jp/blogs/it_asset_management_emcloud_blog/20251022_29677/

シャドーAIの可視化――どうやって検出するか

シャドーAI対策の起点になる可視化の具体的な手法を整理します。シャドーIT検出の手法と重複する部分がありますが、AIサービスに特有の検出のポイントも存在します。

ネットワークログでのAIサービスアクセス把握

社内ネットワークを経由した通信ログを分析し、主要な生成AIサービスへのアクセスを確認します。確認対象として把握しておくべき主なAIサービスのドメインには以下があります。

  • openai.com(ChatGPT、API)
  • claude.ai(Claude)
  • gemini.google.com(Google Gemini)
  • perplexity.ai
  • copilot.microsoft.com
  • character.ai
  • midjourney.com

CASBを使っている場合、多くのCASBソリューションがAIサービスのカテゴリ分類と専用のリスクスコアリングを提供しています。AIサービスへのアクセス量・利用ユーザー・データ転送量を可視化できます。

ただし、VPN未接続の在宅勤務中のアクセスは捕捉できない限界があります。テレワーク環境ではブラウザ拡張機能との組み合わせが必要です。

ブラウザ拡張機能によるSaaS・AI利用の自動記録

Josysのブラウザ拡張機能は、業務端末で使われているSaaSと同様に、AIサービスへのアクセスも自動記録します。VPN接続の有無に関わらず機能するため、テレワーク環境での検出に有効です。

検出されたAIサービスのリストを見れば、「組織内でどのAIサービスが・どの程度の頻度で使われているか」を把握できます。承認済みAIサービスリストと照合することで、未承認のシャドーAIを特定できます。詳細な検出手法についてはシャドーIT 検出 方法を参照してください。

従業員アンケートと自己申告制度の活用

匿名性を担保した形で「業務でどのAIツールを使っているか」を自己申告してもらうアンケートが、初期段階の実態把握に有効です。「申告しても問題を問われない」「むしろ申告してくれた方が情シスとして対応しやすい」というメッセージを伝えることが、正直な回答を引き出す鍵です。

また、新しいAIサービスを使いたい場合に申請できるフォームを設けることで、シャドーAIの発生をチャネル化することができます。「申請して承認を待つより、今日から使える無料サービスを使う」という状況を解消するには、申請から承認までのリードタイムを短縮することが重要です。

参考URL: https://www.ctc.jp/column/shadow-ai.html

AIガバナンスポリシーの設計ポイント

AIガバナンスポリシーは、単なる禁止事項の列挙ではなく、従業員が「何をしていいか・何をしてはいけないか・迷った時はどうするか」を判断できる内容にすることが重要です。

承認済みAIと禁止AIを具体的に列挙する

「未承認のAIツールの業務利用は禁止」という抽象的な記述は機能しません。従業員が「ChatGPTは使っていいのか」「Geminiはどうか」と迷わないよう、具体的なサービス名で承認・禁止を明示します。

記述例:

承認済みAI(利用可):

  • Microsoft 365 Copilot(会社支給ライセンス。入力データは社内のテナントにのみ保存)
  • ChatGPT Enterprise(会社契約。入力データの学習利用なし)

条件付き許可:

  • Google Gemini(個人アカウントでの利用は不可。G Suite Businessアカウントでのみ利用可)

禁止:

  • ChatGPT個人アカウント(無料プラン)(入力データが学習に使われる可能性があるため)
  • その他、情シスが承認していないAIサービス全般

入力禁止データの分類と具体例

承認済みAIであっても、入力してはいけないデータの分類を明確にすることが必要です。情報の機密度に応じた分類と、具体的な禁止例を示します。

絶対禁止:

  • 顧客の個人情報(氏名・住所・メールアドレス・電話番号・マイナンバー等)
  • 社外秘・機密指定された社内情報
  • 取引先との契約書・NDA対象の情報
  • 未公開の製品情報・財務情報

要注意(慎重に扱う):

  • 具体的な顧客名・案件名を含む社内文書
  • 社員の個人情報(給与・評価・健康情報等)

使用可能:

  • 一般的なビジネス文書のひな形作成・文章校正
  • 公開情報の要約・翻訳
  • コードのデバッグ・ドキュメント生成(社内情報が含まれないもの)

ポリシー違反時の対応フロー

ポリシー違反が発生した場合、対応フローをあらかじめ決めておくことで、発覚時の対応がスムーズになります。違反の重大性(機密情報が含まれていたかどうか等)に応じた対応レベルを設定します。

また、「誤って入力してしまった場合はすぐに報告する」という報告しやすい文化をつくることが重要です。隠蔽が最も大きな被害につながります。

参考URL: https://www.aeyescan.jp/blog/shadow-ai-security-risks/

承認済みAIツールの整備と展開

シャドーAI対策の核心は、「禁止すること」より「安全なAIの使い方を整備すること」にあります。

企業向けAIプランの選定基準

企業向けAIプランを選定する際の主要な評価基準を整理します。

データプライバシー:入力データがモデルの学習に使われないことを利用規約で保証しているかどうか。学習利用の有無は、無料プランと企業向けプランで大きく異なります。

データの保存場所:入力したデータがどの国のサーバーに保存されるか。規制上の要件(GDPR等)との整合性を確認します。

セキュリティ認証:SOC 2 Type II・ISO 27001等の認証取得状況。エンタープライズ向けの認証が取得されているかどうかが判断基準になります。

アクセス管理:SSOとの統合・ユーザー管理の仕組み・利用ログの提供有無。情シスが一元管理できる体制を整備できるかどうかを確認します。

Microsoft 365 CopilotとCopilot for Securityの活用

Microsoft 365を全社導入している組織の場合、Microsoft 365 Copilotは最も自然な承認AIの選択肢の一つです。Microsoft Teamsの会話・SharePointのドキュメント・Outlookのメールといった社内データと統合されたAI機能を、組織のMicrosoft 365テナント内で使用できます。

入力したデータはMicrosoftのモデルの学習には使われず、組織のテナント内にのみ保存されます。既存のMicrosoft 365管理センターでユーザー管理・ポリシー設定ができるため、情シスの管理負荷が低い選択肢です。

社内LLM・ローカルLLMという選択肢

機密情報を扱う業務でAIを使いたい場合の選択肢として、社内環境に構築するLLM(大規模言語モデル)があります。外部のAIサービスにデータを送信せずに、社内の閉じた環境でAIを使えるため、情報漏洩リスクを最小化できます。

ただし、社内LLMの構築・運用にはインフラコストとエンジニアリングリソースが必要です。従業員500名規模以上の中堅〜大企業で、機密情報を扱う業務でのAI活用ニーズが高い場合に検討する選択肢です。

参考URL: https://info.nextmode.co.jp/blog/-netskope-shadow-ai-nextmode-blog

従業員教育とAIリテラシーの向上

ポリシーは策定するだけでは機能しません。従業員が「なぜそのルールがあるのか」「どう行動すればよいのか」を理解して初めて、ポリシーは実効性を持ちます。

「禁止」より「正しい使い方」を教える

シャドーAIの研修で多くの組織が犯す失敗は、「禁止事項の列挙」で終わることです。「ChatGPTに顧客情報を貼り付けてはいけない」という禁止事項だけを伝えると、従業員は「AIが使えなくなった」という印象を持ちます。

効果的な研修の構成:

  1. なぜシャドーAIが問題なのか(仕組みを含めた説明):入力したデータがAIサービス事業者のサーバーに送信される仕組み、無料プランでは学習に使われる可能性、実際にどんな被害が起きているか
  2. 何が禁止で何が許可か(具体的な分類と事例)
  3. 承認済みAIを使ってどんな業務効率化ができるか(前向きなデモ)
  4. 困った時はどうするか(申請フローと問い合わせ先)

研修コンテンツと定期的なアップデート

AIサービスの進化速度は速く、今年の研修内容が来年には陳腐化している可能性があります。研修コンテンツを年1回全面更新するより、新しいAIサービスが登場するたびに簡単な周知(Slackのお知らせ・社内ポータルへの投稿)を行うサイクルを組み込む方が実態に合っています。

また、「社員から『このAIサービスを使いたい』という申請が来た場合に、情シスが迅速に評価・回答できる体制」が整っていることを、研修の中で伝えることも重要です。申請フローの存在を知っていることが、シャドーAIの防止につながります。

参考URL: https://www.digitalsales.alsok.co.jp/col_shadow-ai

継続的なモニタリングとポリシー更新

AIサービスは他のSaaSカテゴリより新陳代謝が速いため、一度整備したポリシーや承認リストをそのまま使い続けることはリスクになります。

AIツールの新陳代謝に対応する仕組み

月に1〜2種類のペースで新しい生成AIサービスが登場しています。承認済みAIサービスの利用規約は定期的に変更されることがあります。以下の仕組みを整えることで、この変化への対応を継続できます。

AIサービス申請・評価フロー:社員が新しいAIツールを使いたい場合に申請できるフォームを設け、情シスが一定の基準でリスク評価・承認判断できる体制を整備します。申請から承認まで3〜5営業日を目標にすることで、「申請より自分で使い始める方が早い」という状況を解消します。

承認済みリストの四半期更新:承認済みAIツールのリストを四半期ごとに見直し、利用規約の変更・新たなセキュリティインシデントの発生・より優れた代替手段の出現などを確認します。

CASBとSaaS管理ツールの組み合わせ

CASBソリューションは、AIサービスへのアクセスをリアルタイムで監視し、未承認のAIサービスが使われた際にアラートを発報できます。また、特定のAIサービスへの機密データのアップロードをブロックする機能を持つものもあります。

Josysのようなブラウザ拡張機能を使ったSaaS管理ツールは、CASBと組み合わせることで、テレワーク環境を含めた包括的なAI利用状況の把握を実現できます。

参考URL: https://www.psi.co.jp/topics/2026/nl_20260216_1.html

JosysでシャドーAI対策を効率化する

シャドーAI対策を手動で運用し続けることには、情シスの工数面での限界があります。Josysは、AIサービスを含むSaaS全体の利用状況を可視化・管理する機能を提供しています。

AI・SaaS利用状況の自動可視化

Josysのブラウザ拡張機能は、ChatGPT・Claude・Geminiといった生成AIサービスへのアクセスを、他のSaaSと同様に自動記録します。情シスはダッシュボードから、組織内でどのAIサービスが使われているかを一元的に把握できます。

VPN接続の有無に関わらず機能するため、テレワーク環境でのシャドーAI検出にも対応しています。定期的な手動確認なしに、継続的な可視化が実現します。

未承認AIサービスの検出とアラート

事前に登録した承認済みAIサービスリストと実際の利用状況を自動で照合し、未承認のAIサービスが使われた際にアラートを発報します。情シスが毎日ログを確認しなくても、新たなシャドーAIが発生した時点で把握できる体制を整えます。

シャドーITとシャドーAIをまとめて管理できるため、生成AI時代のIT管理基盤として機能します。

参考URL: https://josys.com/jp/blog/2024-05-23-with-the-rise-of-ai-is-your-it-team-taking-action

シャドーAI対策でよくある質問

Q. 生成AIの業務利用を全面禁止にしてはいけないですか?

全面禁止は、現場の業務効率化の機会を失わせる上に、水面下での利用を促進するだけです。承認済みAIツールを整備した上で、安全な利用環境を提供することが現実的な対応です。

Q. ChatGPT Enterpriseなら安全に使えますか?

ChatGPT EnterpriseはOpenAIが入力データを学習に使用しないことを明言しており、エンタープライズ向けのセキュリティ機能も充実しています。ただし、AIサービスを使う際の「何を入力するか」というルール整備は、どのサービスを使う場合でも必要です。

Q. 社内LLMの構築は中小企業でも現実的ですか?

従業員数が500名以下の組織では、社内LLMの構築・運用コスト(サーバー・保守・エンジニアリングリソース)が負担になるケースが多いです。まずはChatGPT EnterpriseやMicrosoft 365 Copilotのような企業向けプランの活用が現実的です。

Q. 従業員がポリシーに違反した場合、どう対応すればよいですか?

最初の違反については、ポリシーの周知不足や理解不足が原因であるケースが多いです。処罰よりも「なぜ問題なのか・どうすべきだったか」を伝える教育的な対応が、再発防止に効果的です。機密情報の漏洩が実際に発生した場合は、インシデント対応の手順に従い、セキュリティチームと連携した対応が必要です。

参考URL: https://www.jbsvc.co.jp/useful/security/shadow-ai.html

まとめ

シャドーAI対策は、「ChatGPTを禁止する」という単純な措置では機能しません。現状の可視化・リスク評価・AIガバナンスポリシーの策定・承認済みAIツールの整備・従業員教育・継続的なモニタリングという6ステップのサイクルとして設計することが重要です。

最も重要な考え方は「AIを使わせないこと」ではなく「安全なAIの使い方を整備すること」です。現場のAI活用ニーズを正規のルートで満たせる状態をつくることが、シャドーAIの根本的な抑止力になります。

Josys 資料ダウンロードAI・SaaS利用の可視化とシャドーAI対策について、Josysの機能詳細を資料でご確認いただけます。Josys 製品資料をダウンロードする

Questions? Answers.

No items found.
No items found.