- 警視庁が2026年5月12日、企業の「シャドーAI」リスクに公式注意喚起(@MPD_cybersec)
- シャドーAIとは会社が承認していないAIサービスを従業員が勝手に業務利用する行為
- 3大リスクは情報漏洩・著作権侵害・ハルシネーション
- BlackFog調査でAIユーザーの78%が会社承認なしで持ち込み、月間プロンプト数は前年比6倍
- 国内当局が初めて「シャドーAI」を名指し。企業ガバナンスの議論を一気に加速
「うちの会社、AIの使い方ルールってあったっけ?」――そう思ったことはありませんか。警視庁が2026年5月12日、企業向けに「シャドーAI」への注意喚起を出しました。会社の知らないところで社員がAIに機密情報を入力してしまう、いま日本でも急増中の問題です。何が起きていて、企業は何をすべきか。やさしく整理します。
何が発表されたか|警視庁の異例の警告
2026年5月12日「シャドーAIに注意」
2026年5月12日、警視庁サイバーセキュリティ対策本部が公式Xアカウント「@MPD_cybersec」で投稿を出しました。
テーマは「シャドーAI」。図解付きで、企業や従業員が押さえるべきリスクを3つに整理して紹介しています。
国内当局が「シャドーAI」という言葉を名指しで使って警告するのはこれが初めてです。企業ガバナンス担当者や情シス部門にとって、いま読むべき重要なメッセージになりました。
そもそもシャドーAIとは?
シャドーAIとは、会社が承認していないAIサービスを、従業員が個人の判断で業務に使ってしまう行為です。
たとえばこんなケース。営業担当者がスマホの個人アカウントでChatGPTにアクセスし、見積もりの草案を書かせる。経理担当者が手元のGeminiに取引先名と契約金額を貼り付けて要約させる。エンジニアがClaudeに社内コードを貼り付けてエラーを質問する――。
本人に悪気はありません。「効率化したいだけ」です。でも会社から見ると、機密情報が外部のAIサーバーへ流れる重大なリスクになります。
警視庁が示した3つのリスク
警視庁が挙げたシャドーAIの危険性は次の3つです。
- 情報漏えい:入力した情報がAIの学習データに使われる可能性
- 著作権侵害:生成された画像や文章を社外公開すると権利問題に発展する
- ハルシネーション:AIが「もっともらしいウソ」を生成し、誤情報を業務に取り込んでしまう
とくに情報漏えいは一度入力したら回収不能。削除依頼を出しても、AIが学んだ重みは元に戻りません。
どれほど深刻か|数字で見る実態
従業員の8割がシャドーAIを使っている
「自分の会社は大丈夫」と思いたいところですが、データはそうではありません。
JumpCloudの2026年調査では、オフィスワーカーの約8割が何らかの公開AIを業務に使っていると回答しました。
さらにBlackFogが2026年1月に実施した調査では、AIユーザーの78%が会社の承認なしに自分のAIツールを業務に持ち込んでいると判明。63%は「会社公認ツールがなければ非公認を使っても問題ない」と答えています。
ある中堅メーカーの情シス担当者を想像してみてください。社員のPCログを集計したら、ChatGPT・Gemini・Claude・Perplexity・Copilot・国産AIまで含めて20種類以上のAIサービスが日常的に使われていた――いまの日本で珍しくない光景です。
プロンプト入力は前年比6倍
使われる頻度も急増中です。従業員1人あたりの月間プロンプト入力数は、平均1万8,000件と前年比6倍に跳ね上がりました(業界調査)。
観測される生成AIツールの種類も1,600超と拡大しており、IT部門が把握しきれる規模を超えています。
ちなみに、AIに入力される内容も問題です。2026年4月の調査によると、シャドーAIに「顧客データ」や「契約書」を入力する割合は、一般社員で18.8%、課長・部長クラスで37.5%。管理職ほど機密情報を入れている実態が浮き彫りになりました。
サムスン電子で起きた実害
シャドーAIの怖さを世界に知らしめたのが、2023年4月のサムスン電子事案です。
同社のエンジニアが業務効率化のため、ChatGPTに半導体製造の機密ソースコードや社内会議メモを入力。わずか20日間で3件の情報流出が発覚しました。サムスンは即座に社内のChatGPT利用を制限する措置に踏み切っています。
この件は「ちょっと便利に使いたかった」だけで、企業の競争優位が一瞬で外部に渡る怖さを示した象徴的事例です。
シャドーITとシャドーAI|何が違うのか
従来のシャドーITとの比較
「シャドーIT」という言葉なら聞いたことがある人も多いはずです。会社が承認していないクラウドサービスやアプリを社員が勝手に使う、これまでも問題視されてきた分野です。
違いを整理します。
- シャドーIT:Dropbox・個人Gmail・LINE業務利用など、サービスを使うだけ
- シャドーAI:AIに業務情報を入力する。入力データそのものが学習素材になる恐れ
つまりシャドーAIは、「データを使われる」リスクがシャドーITよりはるかに深刻です。ファイルを保存場所に置くのと、AIに「読ませて」しまうのではダメージの種類が違います。
ハルシネーションは新しいリスク
もう一つ、シャドーAI特有のリスクがハルシネーションです。AIがそれっぽい嘘を出力し、現場が信じて顧客対応や経営判断に使ってしまう。
営業担当者がAIに法律解釈を聞いて、その回答をそのまま客先に伝えた――そんな事故が起きると、会社の信用が一気に傷つきます。シャドーITには存在しなかった、AI時代特有の落とし穴です。
IPA「10大脅威2026」にも反映
独立行政法人IPA(情報処理推進機構)が公表する「情報セキュリティ10大脅威 2026」でも、シャドーAIに関連する項目が組織編で上位に入りました。当局・専門機関の認識は完全に揃っています。
日本市場への影響|企業はどう動くべきか
国内企業の現在地
総務省の令和6年版情報通信白書によると、国内で何らかの業務に生成AIを利用している企業は55.2%。半数以上が日常業務にAIを取り込んでいる計算です。
一方、中小企業では「AI利用方針を明確に定めていない」との回答が目立ち、大企業とのガバナンス格差が広がっています。シャドーAI対策が後回しになりがちな業種ほど、いまの注意喚起は重く受け止めるべきです。
禁止だけでは逆効果
「AIを全面禁止すればいい」と考えがちですが、これは逆効果です。
BlackFog調査で63%の従業員が「会社にツールがなければ非公認を使う」と答えた通り、禁止はシャドーAIを助長するのが現実。会社が公式に安全なAI環境を用意し、ルールを示すことが王道です。
いますぐ取るべき5つの対策
企業ガバナンス担当者がすぐ着手できる対策は次の5つです。
- 1. 利用ガイドライン策定:入力禁止情報(顧客名・契約金額・コードなど)を具体的に列挙
- 2. セキュアな公式AI環境を用意:Microsoft 365 Copilot、Azure OpenAI、ChatGPT Enterpriseなど学習しない環境
- 3. 従業員教育:年2回以上、サムスン事例など実例ベースで研修
- 4. 利用状況の可視化:DLP・CASB・IT資産管理SaaSでアカウント単位の利用把握
- 5. インシデント対応フロー整備:万が一漏えいした場合の証跡保全と報告手順
とくに2番目の「公式の代替手段」を用意することが鍵です。社員に「使うな」ではなく「これを使え」と道筋を示すと、シャドーAIは自然に減ります。
注意点と限界|便利さの裏で気をつけたいこと
完璧な対策はない
シャドーAI対策は「ゼロにはできない」前提で組むのが現実的です。スマホやテザリングを使えば社員は会社の網をすり抜けてAIにアクセスできます。
だからこそ「教育」「公式ツール提供」「監視」の三本柱を組み合わせ、リスクを下げる発想が大事です。
フリーランス・派遣・委託先まで含める
正社員だけでなく、業務委託先や派遣社員、フリーランスがシャドーAIで機密を扱う場面も増えています。契約条項に「AI利用ルール遵守」を明記しておかないと、責任の所在があいまいになります。
経営層こそ要注意
調査で明らかになった「課長・部長クラスの37.5%が機密情報を入力」という数字は重要です。情シスの監視を受けにくく、扱う情報の機密度が高い役職ほど、シャドーAIの被害が大きくなります。経営層・管理職向けの研修を別立てで設計すべきです。
よくある質問(FAQ)
Q. シャドーAIとシャドーITは何が違いますか?
A. シャドーITは「未承認サービスを使うこと」、シャドーAIは「未承認AIに業務情報を入力すること」です。
違いの核心は入力データが学習素材になり得る点です。シャドーITはファイル保管場所のミスですが、シャドーAIは情報そのものを外部AIに「学ばせて」しまうので、回収が原理的に難しくなります。
Q. 警視庁の警告に法的拘束力はありますか?
A. 法的拘束力はありませんが、企業の安全配慮義務に強く関係します。
注意喚起そのものは法令ではありません。ただし、もし社員のシャドーAI利用で情報漏えいが起きた場合、「警告は出ていたのに対策しなかった」と評価されます。個人情報保護法違反や民事責任を問われる場面で不利に働く可能性が高いです。
Q. ChatGPTの無料版とEnterprise版で違いはありますか?
A. 大きく違います。Enterprise版は入力データが学習に使われない契約が基本です。
無料版・Plus版は入力内容がAI学習に使われる可能性があります。Enterprise版やTeam版は契約上「学習に使わない」と明示されており、暗号化・アクセス制御・監査ログも整っています。企業利用なら法人プラン一択です。
Q. 個人スマホでのAI利用も止められますか?
A. 完全に止めるのは現実的に不可能です。教育と公式ツール提供で「使う必要をなくす」のが現実解です。
BYOD(私物端末の業務利用)が広がるなか、個人スマホでのAI利用を100%遮断するのは難しいです。会社が便利な公式AIを用意するのが最も効果的な抑止策です。
Q. 中小企業でもすぐ始められる対策はありますか?
A. 「入力してはいけない情報リスト」を1枚作って配るだけでも効果は大きいです。
顧客名・契約金額・社員の個人情報・未公開の製品情報・社内コードなど、「これは絶対にAIに入れない」リストを作って従業員に共有しましょう。立派なガイドライン文書を作らなくても、まず1枚から始めれば事故率は大きく下がります。
Q. もし社員が誤って機密を入力してしまったら?
A. 隠さず即座に情シスへ報告。AIサービスの履歴削除を依頼し、影響範囲を特定します。
個人情報が含まれていれば個人情報保護委員会への報告も検討対象になります。隠蔽は事態を悪化させるだけ。発覚時に正直に申告した社員を罰しない文化づくりも、結果的に被害を最小化します。
まとめ
- 警視庁が2026年5月12日に「シャドーAI」へ公式注意喚起(@MPD_cybersec)
- 3大リスクは情報漏洩・著作権侵害・ハルシネーション
- AIユーザーの78%が会社承認なしで持ち込み、月間プロンプトは前年比6倍
- 課長・部長クラスの37.5%が機密情報を入力、管理職ほど危険度が高い
- サムスン電子は2023年4月にChatGPT経由で機密漏えい、20日で3件発覚
- 禁止は逆効果。「公式の代替AI環境」を用意して使い道を示すのが王道
- 対策はガイドライン・公式環境・教育・監視・インシデント対応の5本柱
- IPA「10大脅威2026」にも関連項目が反映、当局・専門機関の認識は揃った
次のアクション:まずは自社の従業員が日常的に使っているAIサービスを「正直に申告してもいいよ」という形で1週間アンケートしてみましょう。実態が見えれば、対策の優先順位は自然に決まります。

