73%の社員が”隠れAI”利用|会社非公認の生成AI実態

伊東雄歩
監修者 伊東 雄歩

株式会社ウォーカー CEO。東北大学卒。MENSA会員、JDLA認定講師、健全AI教育協会理事。生成AI×教育・学習科学を専門とし、2億円超のシステム開発プロジェクトを統括。

taolis.net X note Voicy YouTube
  • 2026年5月12日、アクトが「生成AI導入のジレンマ白書2026」を公開(1,011名調査)
  • 現場社員の73.1%が会社非公認AI(シャドーAI)を業務利用
  • 9割の社員が「恐怖心」を抱えながらAIを使用
  • 経営層83.4%・一般社員84.5%が「技術的安全装置」を希望
  • 2023年サムスン事例のソースコード流出が日本企業の他人事ではなくなる

「会社で生成AIを使っていいと言われていないけど、つい使ってしまっている」——そんな後ろめたさを感じたことはありませんか。2026年5月12日に公開された最新の国内調査で、なんと7割を超える現場社員がこの状態にあることが判明しました。本記事では「シャドーAI」と呼ばれるこの実態と、企業がいま何をすべきかをわかりやすく整理します。

何が判明したのか|衝撃の73.1%

国内1,011名を調査した白書

2026年5月12日、東京のIT企業株式会社アクトが「生成AI導入のジレンマ白書2026」を公開しました。

調査は2026年4月15日〜16日に実施。従業員100〜999名規模の企業で生成AIを活用している経営層505名・一般社員506名の計1,011名を対象としたインターネットアンケートです。

注目すべきは、経営層と現場社員の「両方」に同じ質問をぶつけ、両者のギャップを浮かび上がらせた点です。

現場の7割超が会社非公認AIを使用

白書の最大の発見はこの数字でした。

「会社が公式に認めていないAIツール(シャドーAI)を業務で使っていますか」という質問に対し、現場社員の73.1%が「はい」と回答。経営層が「ルールがまだ整っていないから」と慎重に検討している間に、現場ではすでに3人に2人以上がAIを”こっそり”使っている計算です。

つまり、日本の中堅企業ではすでにシャドーAIが「例外」ではなく「標準」になりつつあります。

9割が「恐怖心」を抱えながら使用

もう一つの衝撃データが、社員の心理的負荷です。

白書では現場社員の約9割が「漏洩したらどうしよう」という恐怖心を抱えながらAIを利用していると報告されました。「便利だから使うけれど、内心ビクビクしている」状態が、職場の標準になっているのです。

これは生産性にも悪影響を及ぼします。集中してAIに質問できず、「あとで叱られたらどうしよう」と気にしながら作業するため、本来得られるはずの効率化メリットが半減してしまうわけです。

3つのジレンマ|なぜこうなったのか

ジレンマ1:管理のパラドックス

白書はこの現象を「3つのジレンマ」として整理しています。

第一が「管理のパラドックス」です。経営層は「社内ルールが未整備だから」と公式導入を見送る一方、現場は「便利だから」と独自にChatGPTやGeminiなどを使い始める。守ろうとして規制を遅らせるほど、かえって無秩序な利用が広がるという皮肉な構図です。

ちなみにこれは日本に限った話ではありません。Microsoft×LinkedInの「Work Trend Index 2024」でも、31カ国3万1,000人のうちAIユーザーの78%が会社の承認なしに自分のAIを業務へ持ち込んでいると報告されています。世界共通の構造問題なのです。

ジレンマ2:セキュリティの死角

第二が「セキュリティの死角」です。

経営層は「機密データの漏洩」を最大のリスクとして恐れています。実際、米Cyberhaven社の2025年調査では、社員がAIツールに入力したデータのうち18.7%がソースコード、17.1%が財務資料という結果が出ています。1年でAIへの機密情報入力量は約4.6倍に増加。

ところが、現場社員自身も漏洩を恐れている。経営層と現場社員が「同じ不安」を抱えながら、お互いの実情を知らないまま動いている。これがセキュリティの死角を生み出している正体です。

ジレンマ3:技術的解決への期待

第三が「技術的解決への期待」です。

「もし技術的な安全装置があれば、AI活用を加速させたいですか?」という質問に対し、経営層83.4%、一般社員84.5%が「はい」と回答。両者の合意点は明確で、「禁止」ではなく「安全に使える仕組み」を皆が求めています。

つまり日本企業の課題は「使う・使わない」ではなく、「どうやって安全に使うか」のフェーズに完全に移っているのです。

サムスン事例|他人事ではない流出リスク

3件の機密漏洩が立て続けに発生

シャドーAIが引き起こす最悪のシナリオは、すでに現実になっています。

2023年4月、韓国のサムスン電子でChatGPTを使った機密漏洩が3件立て続けに発覚しました。

  • 1件目:エンジニアが半導体設備の制御ソースコードをChatGPTに入力
  • 2件目:別の社員がプログラム最適化用のコードを貼り付け
  • 3件目:社内会議の音声データを文字起こしし、議事録作成のためにChatGPTへ投入

いずれも「業務を効率化したい」という善意の動機です。しかし入力されたデータは原則的にOpenAIの学習データに含まれる可能性があり、競合他社が同じトピックで質問したら回答に出てしまうかもしれない。サムスンは即座に社内利用を禁止し、違反者には「解雇もあり得る」と通達しました。

一度流出すると「取り戻せない」

従来の情報漏洩との決定的な違いは「不可逆性」です。

普通のファイル流出なら「サーバーから削除する」「該当の人に削除を依頼する」といった対応がありえます。でもAIモデルに学習されてしまうと、その情報を完全に消すことは事実上不可能。AI事業者が「学習に使わない」と約束していても、ログとして一定期間は保存される運用が一般的です。

「漏れたら永遠に取り戻せない」——この性質がシャドーAIをこれまでの情報漏洩と違う次元の問題にしているのです。

日本でも他人事ではない

サムスンは韓国の事例ですが、日本でも同じことが起きないとは限りません。

むしろアクトの白書が示すように、すでに日本の中堅企業の7割超で「機密情報を入れる準備が整っている」とも言えます。多くの現場社員はリスクを認識しながら使っているため、ある日うっかり顧客リストや決算データを貼り付けてしまうケースは十分起こりえます。

「うちは大丈夫」と思っている経営者ほど、実態を知ったときの衝撃は大きいでしょう。

解決策|技術・ポリシー・教育の三位一体

技術的アプローチ:プロンプトのリアルタイム検知

では、企業はどうすればよいのでしょうか。

アクトが2026年4月から提供を始めた「Prompt Security for Employees」は、技術的アプローチの代表例です。社員がChatGPTやGeminiなどに入力しようとした内容をリアルタイムで検知し、機密情報部分だけを自動マスキングします。

たとえば「顧客の山田太郎さんから問い合わせがあり、口座番号は1234567で…」と入れようとすると、AIに届く前に「顧客の[氏名]さんから問い合わせがあり、口座番号は[番号]で…」と変換される仕組みです。社員の作業を止めずに、漏洩リスクだけを取り除く設計になっています。

さらに「いつ、誰が、どのAIで、何を話したか」を可視化する機能も搭載。シャドーAIを「見える化」することで、初めて適切な管理が可能になります。

ポリシー的アプローチ:使えるAIと使えないAIを明示

技術だけで解決はしません。ガイドラインの整備が不可欠です。

具体的に以下を明文化する必要があります。

  • 業務利用OKのAIサービス一覧(例:法人契約のCopilot、Gemini for Workspace等)
  • 業務利用NGのAIサービス一覧(例:個人版ChatGPT、不明な海外AI等)
  • 入力してはいけない情報の例(顧客個人情報、未公開財務情報、ソースコード等)
  • 違反時の対応フロー

経済産業省と総務省の「AI事業者ガイドライン」も2026年2月に「令和7年度更新案」が公表され、AIエージェントやリスクベースアプローチの具体化が進んでいます。自社ガイドライン作成時のベースとして参考にできます。

教育的アプローチ:使い方の研修を継続

そして最後が継続的な教育です。

「禁止」だけのメッセージでは、現場は反発するか、こっそり使い続けるかのどちらかです。むしろ「ここまでなら安全に使える」「こう使えば効果的」と具体的な活用方法を教える方が、結果的にリスクは下がります。

たとえば営業職には「議事録作成にAIを使うときは社名・人名を伏字にしてから入力する」、エンジニアには「ソースコードを貼る前に変数名やAPIキーをダミーに置換する」といった、職種別のガイダンスが効果的です。

対策ツール比較|どれを選べばいいのか

主要なシャドーAI対策ソリューション

2026年時点で日本市場に投入されている主要対策ソリューションを整理します。

  • Prompt Security for Employees(アクト):プロンプトのマスキング、シャドーAI可視化、リアルタイム検知が強み。
  • Microsoft Purview AI Hub:Microsoft 365統合環境でのAI利用を一元監視。M365契約企業向け。
  • Cyberhaven Linea AI:データの動線追跡が得意。AI入力ログを詳細分析。
  • 従来型DLP(Symantec、McAfeeなど):機密データ送信ブロックの汎用ツール。AI特化の検知精度では新世代に劣る場合がある。

企業規模・既存システム環境・予算に応じて選択することになりますが、共通しているのは「禁止ではなく可視化」という方向性です。

従来のDLPでは追いつかない理由

「すでにDLPがあるから大丈夫」と思っている企業も要注意です。

従来のDLPはメール添付ファイルやUSBコピーといった「静的なデータ移動」を主に監視してきました。一方シャドーAIは、社員が普通のWebブラウザでChatGPTにテキストを入力する形のため、ファイル単位の監視では捕捉しきれません。

AI時代に対応するためには、プロンプト単位での内容解析ができる新世代ツールが必要です。

日本市場への影響|中堅企業ほど注意

大企業より中堅企業が脆弱

白書の調査対象は従業員100〜999名規模の中堅企業。意外なことに、最も対策が必要なのはこのセグメントかもしれません。

大企業はもともと情報セキュリティ予算が大きく、専門部署もあるため、AI関連の対策も比較的早く着手できます。一方、中堅企業はリソースが限られ、「とりあえず禁止」でしのいでいる状態が多い。でも禁止しても現場は使ってしまう——白書の73.1%という数字は、その実態を裏付けています。

中堅企業こそ「技術+ポリシー+教育」の三位一体対策が緊急テーマと言えます。

日本のガイドライン整備は道半ば

日本企業のガイドライン整備も追いついていません。

総務省の調査では、生成AI活用方針を定める企業は2024年度時点で49.7%。前年の42.7%から増えてはいるものの、まだ半数に届きません。「方針すら決まっていない」企業が半分以上ある中で、現場の7割超がシャドーAIを使っているのですから、ガバナンスの空白は深刻です。

海外企業との温度差

世界の動きはさらに速いです。

JumpCloudの2026年調査では、米国のオフィスワーカーの約8割が何らかの公開AIを業務で使用。Cyberhavenのデータでも、テクノロジー企業の従業員AI導入率は38.9%に達し、急速に上昇中です。

このペースについていけないと、日本企業は「セキュリティが弱い」だけでなく「AI活用も遅い」という二重の遅れを抱えることになります。シャドーAI対策は守りであると同時に、攻めの一手でもあるのです。

よくある質問(FAQ)

Q. シャドーAIと普通のAI利用は何が違うのですか?

A. 「会社が公式に承認しているか」が分かれ目です。

たとえば会社が法人契約しているMicrosoft CopilotやChatGPT Enterpriseを業務で使うのは正規のAI利用。一方、社員が個人のメールアドレスで登録した無料版ChatGPTに業務情報を貼り付けるのはシャドーAIです。後者は「データが学習に使われる可能性」「管理者がログを追えない」「責任の所在が曖昧」といったリスクを抱えています。

Q. シャドーAIは禁止すれば解決しますか?

A. 禁止だけではむしろ悪化する可能性が高いです。

白書が示すように、現場は「便利だから」AIを使っています。禁止令を出しても、隠れて使い続けるか、自宅のスマホで業務情報を入力するかのどちらかになりがちです。重要なのは「禁止」より「安全に使える環境の提供」。法人契約版を支給し、技術的な漏洩対策を入れた上で、活用ガイドラインを教育する三位一体が現実解です。

Q. 個人版ChatGPTのデータは本当に学習に使われるのですか?

A. 設定次第ですが、デフォルトでは利用される可能性があります。

OpenAIの規約では、無料版・Plus版の会話データは原則として学習データに使われる可能性があると明記されています(オプトアウト設定は可能)。ChatGPT Enterprise・Business版や、企業向けAPI経由の利用は学習に使われない契約です。「個人版を業務で使うと学習リスクがある」という前提で行動するのが安全です。

Q. 中小企業でも対策ツール導入は必要ですか?

A. 必要ですが、導入規模は調整できます。

従業員30人規模の企業なら、まずは「業務利用OKのAIを法人契約で支給」「禁止情報リストの社内通知」「四半期ごとの研修」という基本3点セットから始められます。専用の検知ツール導入は、社員数が100名を超えるあたりから検討するのが現実的です。「うちは小さいから関係ない」ではなく、規模に合わせた段階的対策が肝心です。

Q. 社員が個人スマホで業務にAIを使っている場合は?

A. 最も難しいケースで、ポリシー・教育で対応するしかありません。

会社支給PC上のAI利用なら技術的に監視・制御できますが、個人スマホからの利用は完全な制御は困難です。このケースでは「業務上の機密情報はいかなる端末でも個人版AIに入れない」というルールを明文化し、違反時のペナルティを定めるのが基本。同時に、社員自身が「安全に使える法人版」を持っていれば、わざわざ個人版を使う動機が減ります。

Q. アクトの「Prompt Security for Employees」はいくらで導入できますか?

A. 個別見積もりですが、SaaS型のため数十名規模から検討可能です。

具体的な金額は公開されていませんが、同種のプロンプトセキュリティ製品は一般的に1ユーザー月額数千円〜1万円程度のレンジで提供されています。導入規模、必要な機能、サポート体制によって変動するため、アクトに直接問い合わせるのが確実です。製品自体はイスラエルのPrompt Security社のソリューションを日本市場向けにアクトが提供している形となっています。

まとめ

  • 2026年5月12日、アクトが「生成AI導入のジレンマ白書2026」を公開(1,011名調査)
  • 現場社員の73.1%が会社非公認AI(シャドーAI)を業務利用
  • 9割近くが「漏洩したらどうしよう」という恐怖心を抱えながら使用
  • 3つのジレンマ:管理のパラドックス、セキュリティの死角、技術的解決への期待
  • サムスン事例(2023年)のChatGPT機密流出が日本でも起こりうる現実
  • 解決策は「技術+ポリシー+教育」の三位一体。禁止だけでは悪化する
  • 大企業より中堅企業こそ早急な対策が必要
  • 日本企業のガイドライン整備率は49.7%でまだ半数届かず

次のアクション: あなたの会社にAI利用ガイドラインがあるか、まず確認してみてください。なければ「業務利用OK/NGのAI一覧」「入力禁止情報の例」を1ページにまとめるだけでも、シャドーAI対策の第一歩になります。

参考文献

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です