.png)
「ChatGPTで社内の会議議事録を要約させていた社員がいた」「退職した社員の個人アカウントに顧客データが残っていた」――2026年、こうした事案がすでに複数の国内企業で発生しています。[内部リンク: シャドーAIとは]で定義したとおり、シャドーAIとは企業が承認していないAIツールを従業員が業務で使う状態を指しますが、問題はその行為が「リスク」として具体的にどんな形で企業を脅かすかです。
この記事では、シャドーAIが企業に与える5大リスクを具体的に整理し、情シス担当者が優先的に取り組むべき対策をセットで解説します。「シャドーAIがなんとなく怖い」という感覚を、「何が・どのくらい危険で・何から手をつけるか」という実践的な判断に変える情報をまとめています。
シャドーAIが単なる「規則違反」ではなく、経営レベルの問題として扱われるべき理由は何でしょうか。生成AIは便利なツールである一方、使い方を誤ると企業に深刻なダメージをもたらす特性を持っています。この特性を理解した上でリスクを評価することが、適切な対策につながります。
通常の未承認SaaSと比べて、AIツールには情報の「一方向的な流出」が起きやすいという特性があります。ファイルをアップロードしたり、テキストを貼り付けたりした瞬間に、そのデータはAIサービス事業者のサーバーに送信されます。利用者本人に「データを渡した」という意識が薄いまま情報移転が発生する点が、シャドーAIリスクの本質です。
従来のシャドーIT(未承認のSaaS利用)でも情報流出リスクはありますが、AIツールの場合は「入力したデータがそのツールの改善・学習に使用される可能性がある」という特有のリスクが加わります。サービスごと・プランごとに利用規約が異なるため、従業員が規約を精読せずに機密情報を入力しているケースが後を置かない。
総務省の2025年情報通信白書によると、何らかの業務で生成AIを利用している日本企業は55.2%に達しています。生成AIの業務利用が急速に広まっている一方、利用ルールや情報管理ポリシーが整備されていない企業が多く、管理の空白が生まれています。
個人情報保護法、内部情報管理規程、取引先とのNDA(秘密保持契約)――これらの規定は、従業員が「会社のルールを知らなかった」という理由では免責されません。特に情シスが管理体制を整備せず、シャドーAIの存在を「知りながら放置していた」と見なされた場合、企業としての管理責任が問われるリスクがあります。
2026年時点でEU AI Actの主要条項が適用フェーズに入っており、欧州でビジネスを行う企業はAIシステムのリスク分類と適切なガバナンス整備が求められています。国内でも経済産業省がAIガバナンスに関するガイドラインを整備しており、企業がAI利用に関する方針を策定することへの期待が高まっています。法的・規制上のリスクを考慮すると、シャドーAIの放置は経営リスクとして対処が必要な問題です。
参考URL: https://www.ntt.com/bizon/shadow-ai.html
シャドーAIリスクの中で最も深刻なのが、情報漏洩です。生成AIツールへのデータ入力が、意図せず企業の機密情報を外部に流出させる経路になっています。発覚するタイミングが遅く、漏洩範囲が把握しにくい点がこのリスクの難しさです。
AIサービスへの入力データがどのように扱われるかは、サービスごと・プランごとに大きく異なります。
従業員が個人アカウントの無料版を使って、顧客名・案件名・財務数字・個人情報を含む文書を貼り付けた場合、そのデータがサービス改善や学習に利用される可能性があります。「社員が良かれと思って使った」結果が情報漏洩インシデントにつながるリスクが、シャドーAIには常に存在します。
無料版のAIツールだけでなく、業務効率化を謳うブラウザ拡張機能型のAIツールにも注意が必要です。ブラウザの閲覧内容やコピー&ペーストの内容を収集するケースがあり、従業員が意識しないうちにデータが外部に送られていることがあります。
個人情報保護法の観点では、従業員が顧客の個人情報をAIサービスに入力した場合、そのAIサービスへの「第三者提供」に該当する可能性があります。本人の同意なく個人情報を第三者に提供することは個人情報保護法違反となり、企業としての法的責任が生じます。
2023年には国内外で複数の企業で生成AIへの情報入力によるインシデントが報告されています。韓国の大手半導体メーカーでは、エンジニアがChatGPTにソースコードを貼り付け、機密情報が流出したとされています。国内でも、金融機関・医療機関・製造業において、業務システムのデータをAIに入力するケースが確認されています。
2024〜2025年にかけては、生成AIへの機密情報入力が原因と疑われる情報漏洩の懸念が、国内企業でも相次いで社内問題として浮上しました。多くは情報漏洩として公式に公表されていないため、実際の件数は公表されている数の何倍も存在する可能性があります。
シャドーAIによる情報漏洩が特に深刻なのは、「いつ・誰が・何を入力したか」を把握できない点です。通常のSaaSであれば操作ログを取得できますが、未承認のAIツールへの入力は情シスの監視外であり、インシデント発生後の調査が困難になります。
参考URL: https://ascii.jp/elem/000/004/279/4279922/
情報漏洩と並んで重要なのが、AIが誤情報を自信満々に生成する「ハルシネーション」のリスクです。シャドーAIの場合、生成されたコンテンツに対するレビューフローがないため、誤情報が社外に出てしまうリスクが特に高くなります。
ハルシネーション(幻覚)とは、AIが存在しない事実・数字・引用・法令を、まるで本物であるかのように生成してしまう現象です。特に生成AIが文章を作成する際に「もっともらしく」補完しようとする設計上の特性から生じます。ハルシネーションは現在の生成AIが持つ根本的な課題であり、最新モデルでも完全には回避できません。
生成AIの回答は流暢で自信満々な表現になるため、ユーザーが「これは正確な情報だ」と思い込みやすい点が問題です。人間が書いた文章であれば「この数字は本当か確認しよう」と思うところを、AIが自信を持って提示する数字は疑われにくい傾向があります。
業務でAIを活用する場合の基本原則は、「AIの出力は出発点であり、ファクトチェックが必須」というものです。しかしシャドーAIを利用している従業員は、このリスクを認識せずに使用しているケースが多く、チェックなしに出力をそのまま使用してしまいます。
シャドーAIで作成された文書が、ファクトチェックされずに外部に送付されるケースが問題になっています。具体的な影響として以下の3つが挙げられます。
シャドーAIの場合、情シスのレビューフローが存在しないため、こうした問題が社内で発見されずに外部に出てしまう可能性が高くなります。承認済みのAIツールを導入する場合は、出力のレビューフローを業務プロセスに組み込むことができますが、シャドーAIではそれも難しい状況です。
ハルシネーションリスクへの対策として有効なのは、承認済みの企業向けAIツールを提供し、そのツールの利用マニュアルにファクトチェックの手順を明記することです。「AIの出力はドラフトとして扱い、最終確認は人間が行う」という運用ルールを浸透させることが、業務品質の低下を防ぐ現実的な対策です。
参考URL: https://www.jbsvc.co.jp/useful/security/shadow-ai.html
AIが生成するコンテンツには、著作権・知的財産に関するリスクが伴います。シャドーAIを利用して作成したコンテンツをビジネスで使用することで、知らないうちに著作権侵害に関与してしまうリスクがあります。
生成AIはインターネット上の大量のテキスト・コードを学習しています。生成される文章やコードが、学習元の著作物と類似していた場合、著作権侵害の可能性が生じます。特にコーディングAI(GitHub Copilot等)では、学習データに含まれるオープンソースコードのライセンス(GPL等)を引き継ぐコードが出力されるケースが報告されており、企業の商用ソフトウェアに組み込んだ場合にライセンス違反となるリスクがあります。
画像生成AIについては、既存のアーティストの作風を模倣したコンテンツの生成が著作権侵害に当たるかどうかが各国で議論されています。日本では現時点で生成AIの著作権について法律上の明確な規定が整備されていない部分もあり、法的グレーゾーンの中でリスクをコントロールする必要があります。
法的リスクの回避策として、AIが生成したコンテンツを商業利用する場合は、そのサービスが「商業利用を許可しているか」「著作権の帰属について明確な規定があるか」を事前に確認することが重要です。企業向けプランでは、こうした利用条件が個人向けプランより明確に設定されているケースが多いです。
シャドーAIで使われる個人版サービスでは、入力された企業独自のノウハウ・設計情報・営業戦略がAIの学習データとして取り込まれる可能性があります。一度学習されたデータは削除が困難なため、競合他社が同じAIサービスを使ったとき、間接的に自社の機密情報が漏洩する経路になりかねません。
営業戦略・製品設計・顧客との契約内容など、企業の競争優位性の源泉となる情報がAIに入力されることで、その情報が他の利用者の回答生成に間接的に影響する可能性があります。「自社だけが知っている情報」が、AIを介して競合他社に伝わるリスクは、目に見えにくいが実在するリスクです。
入力禁止情報を具体的に定めることが重要な対策です。「AIへの入力禁止事項」として、顧客情報・未公表の財務情報・取引先との機密事項・製品の設計情報・特許出願前の技術情報などを明示したポリシーを整備し、全従業員に周知します。
参考URL: https://www.ctc.jp/column/shadow-ai.html
シャドーAIの利用は、企業のコンプライアンス体制を根底から揺るがすリスクを持っています。情報管理に関する法規制が複雑化・厳格化する中、シャドーAIの放置は複数の法規制に抵触する可能性があります。
個人情報保護法では、個人情報を第三者に提供する場合は本人の同意が必要です。従業員が顧客の個人情報(氏名・連絡先・取引履歴等)をAIサービスに入力した場合、AIサービス事業者への「第三者提供」に該当する可能性があります。情シスが管理体制を整備していなかった場合、企業としての責任が問われます。
個人情報保護委員会は2023年以降、生成AIサービスへの個人情報入力に関する注意喚起を行っています。「利用目的の達成に必要な範囲を超えた個人情報の利用」や「本人同意なしの第三者提供」に該当する行為は、個人情報保護法違反として行政指導・命令の対象になります。
違反が発覚した際の影響は、行政処分にとどまりません。個人情報保護委員会による公表・命令が行われた場合、報道による企業イメージの低下、顧客からの信頼失墜、取引先との関係悪化といった二次的なダメージが生じます。
金融・医療・製造(輸出管理)などの規制業種では、情報管理に関する法的要件が特に厳しくなっています。
これらの業種でシャドーAIが発覚した場合、監督官庁からの行政処分・業務停止命令に発展するリスクがあります。規制業種では特にシャドーAI対策の優先度が高く、経営レベルでの関与が必要です。
2026年時点でEU AI Actの主要条項が適用されており、欧州でビジネスを行う企業はAIシステムのリスク分類と適切なガバナンス整備が求められます。EU AI Actでは、AIシステムをリスクレベル(許容不可・高リスク・限定リスク・最小リスク)に分類し、それぞれに異なる要件を課しています。
シャドーAIの放置は、EU AI Actのコンプライアンス違反となりえます。特に個人評価・採用・重要インフラに関わるAI利用は「高リスク」に分類され、より厳格な管理が求められます。欧州拠点を持つ企業や欧州顧客を持つ企業は、グローバルなAIガバナンス体制の構築が急務です。
参考URL: https://www.aeyescan.jp/blog/shadow-ai-security-risks/
シャドーAIはセキュリティ上の攻撃面を広げるという問題もあります。生成AIブームを利用した悪意のあるサービスや、AI機能を装ったマルウェアが増加しており、情シスが把握していない未承認ツールの中にこうしたリスクが潜む可能性があります。
シャドーAIとして使われる「AIツール」の中には、フィッシング目的で作られた偽のAIサービスが含まれている可能性があります。利用者がID・パスワード・業務データを入力した瞬間に、攻撃者に情報が渡ってしまう手口です。
生成AIブームに乗じた悪質なサービスの存在は2024〜2026年にかけて増加しており、App StoreやChrome Web Storeにも悪意のあるAIアプリが混入したケースが報告されています。「人気のAIツールの類似品」として公開された悪意のあるサービスが、意図せずインストールされるリスクがあります。
外観が本物のAIサービスと酷似している場合、従業員が見分けることは困難です。情シスが承認リストを整備し、「承認されたAIツール以外は使用禁止」というルールを明確にすることが、この種のリスクへの現実的な対策です。
AIツールの中には、ブラウザ拡張機能として提供されるものもあります。悪意を持って設計されたブラウザ拡張は、ブラウザ上の入力情報(パスワード・クレジットカード番号等)を収集する機能を持つことがあります。従業員が「便利なAIアシスタント」と思ってインストールした拡張機能が、マルウェアだったというケースも報告されています。
ブラウザ拡張機能のリスクが高いのは、インストールが容易で情シスの管理外で行われやすい点です。Chromeなどのブラウザでは、拡張機能のインストールに管理者の承認が不要なため、従業員が自由に拡張機能を追加できます。マネージドデバイスのブラウザ設定を管理し、承認されていない拡張機能のインストールを制限することが技術的な対策として有効です。
AI機能を持つ拡張機能の中には、ページ上の全文書を自動でAIに送信して要約・翻訳するものも増えています。業務システムのページを開いた際に、そのシステム上の情報が自動で外部に送信される可能性があり、従業員が意識しないうちに機密情報が流出することがあります。
参考URL: https://sinmido.com/news/p3210/
5つのリスクを把握した上で、どの対策から着手すればよいかを整理します。予算・人員が限られている情シス部門でも実行できる対策から順に優先順位をつけることが重要です。
最も費用対効果が高い初動は「現状把握(可視化)」と「ポリシー周知」の2点です。これは特別な予算がなくても情シス単独で進めることができます。
シャドーAI対策の第一歩は、社内でどのAIツールが使われているかを把握することです。プロキシログを分析して社内からのAIサービスへのアクセスを確認する、MDM(モバイルデバイス管理)で端末にインストールされているアプリを確認する、従業員へのアンケートでAIツールの利用実態を把握するという3つのアプローチを組み合わせることで、精度の高い実態把握が可能です。
可視化の結果から、利用されているAIツールを「承認済み・継続利用可」「評価が必要」「利用禁止」の3つに分類します。この分類を経営レベルで承認した上で、全社向けのAI利用ガイドラインを整備します。
シャドーAIのポリシーを策定する際に最も重要なのは、「禁止事項」と「代替手段」をセットで提示することです。禁止だけを伝えると従業員の不満が高まり、隠れて利用されるリスクが残ります。「これは禁止だが、代わりにこのツールを使えばよい」という代替案をセットで提示することで、業務の効率性を維持しながらリスクを管理できます。
ポリシーに含めるべき主要な要素は、①利用を承認するAIツールのリスト、②AIへの入力が禁止される情報カテゴリー(機密情報・個人情報・未公開情報等)、③AIが生成した内容を業務利用する際のレビュー手順、④ポリシー違反の報告方法と対応フローの4点です。
ジョーシス(Josys)のSaaS管理プラットフォームは、シャドーAIへの対応において特に「可視化」と「アカウント管理」の面で力を発揮します。
可視化機能として、ブラウザ拡張とIDプロバイダー連携によって、情シスが把握していないAIツールの利用を自動検出します。どの部署の誰が、どのAIサービスをどの程度使っているかがダッシュボードで一覧確認できます。
アカウント管理機能として、退職・異動時の自動デプロビジョニングにより、AIサービスを含む承認済みSaaSのアカウントを一括で無効化します。退職者アカウントの放置リスクを大幅に低減します。
SaaS可視化とはの仕組みを活用することで、シャドーAIを含む未承認ツール全体のリスク管理が、大幅に効率化できます。
参考URL: https://josys.com/jp/blog/2024-05-23-with-the-rise-of-ai-is-your-it-team-taking-action
技術的な対策と並んで、組織的な体制整備も不可欠です。シャドーAIのリスク管理は情シス単独の問題ではなく、法務・コンプライアンス・人事・経営企画を巻き込んだ横断的な取り組みが必要です。
シャドーAIのリスク管理は、情シス単独では対応しきれない側面があります。法務・コンプライアンス・経営企画・人事を巻き込んだ「AIガバナンス委員会」を設置し、AI利用ポリシーの策定・更新、新しいAIツールの審査・承認、インシデント発生時の対応フローを組織横断で管理する体制が望ましいです。
AIガバナンス委員会の役割は、静的なルールを定めることだけではありません。生成AI技術の進化は速く、新しいサービスが次々と登場するため、ポリシーの定期的な見直しと更新が必要です。四半期に一度程度の頻度で委員会を開催し、新しいAIツールの評価と承認リストの更新を行う体制を整えます。
新しいAIツールの審査プロセスを明確化することで、従業員からの「このAIツールを使っていいか」という問い合わせに、一定のルールに基づいて迅速に回答できます。審査フローが整備されると、シャドーAIが発生する主な原因である「申請して承認を得るのが大変」という状況を改善できます。
シャドーAIの多くは悪意ではなく無知から生まれます。従業員向けの教育では、シャドーAIのリスクを具体的な事例で伝えることが重要です。「こんなことが起きています」という実例が最も記憶に残り、行動変容につながります。
教育内容として特に重要なのは、①何を入力してはいけないかを明確にすること、②代替手段(承認済みのAIツール)を提示すること、③AIの出力はファクトチェックが必要であることの3点です。禁止事項の一覧と承認済みツールのリストをセットで提供することで、従業員が安全にAIを活用できる環境を作れます。
教育の効果を高めるには、一方的な講義形式ではなく、具体的なシナリオを使った参加型のトレーニングが効果的です。「あなたがこの状況でAIを使ったら何が起きる?」というケーススタディを用いた演習で、リスクへの感覚を実感として育てます。
生成AIガバナンス ポリシー 企業では、AI利用ポリシーの具体的な策定方法を解説しています。シャドーAIリスクへの対策を企業全体のAIガバナンスと連動させて設計したい方は、あわせてご参照ください。
シャドーAIのリスクは、情報漏洩・ハルシネーション・著作権侵害・コンプライアンス違反・セキュリティ攻撃の5つに整理できます。いずれも「従業員の悪意」ではなく「組織の管理体制の不備」が引き効き起こすリスクです。
情シス担当者として最初に取り組むべきは、自社でどのAIツールが使われているかを把握する「可視化」と、入力禁止情報を明文化した「ポリシー周知」の2点です。この2つを進めるだけで、シャドーAIリスクの多くは大幅に低減できます。企業版AIツールを提供して従業員が安全にAIを活用できる環境を整えることが、次のステップとして有効です。
シャドーAIの定義・種類についてはシャドーAIとはを、生成AI時代のガバナンス整備全体については 生成AIガバナンス ポリシー 企業をご参照ください。
Sign-up for a 14-day free trial and transform your IT operations.
