Google社員600人がPichaiに反旗|Gemini軍事利用に署名

伊東雄歩
監修者 伊東 雄歩

株式会社ウォーカー CEO。東北大学卒。MENSA会員、JDLA認定講師、健全AI教育協会理事。生成AI×教育・学習科学を専門とし、2億円超のシステム開発プロジェクトを統括。

taolis.net X note Voicy YouTube
  • 2026年4月、Googleが米国防総省とGemini軍事利用契約を締結
  • 社員600人超(最終的に約1,000人)がPichai CEOに公開書状で抗議
  • DeepMind英国チームは98%賛成で労組結成
  • 契約は「あらゆる合法目的」での利用を許可、安全フィルタも政府要請で調整
  • Anthropicは拒否し「サプライチェーンリスク」指定、Googleが受け皿に

「Geminiが戦場で使われるとしたら、開発した社員はどう感じるでしょうか」。2026年4月、Googleが米国防総省と結んだAI契約を巡って、社員600人超が公開書状でCEOに抗議する事態が発生しました。本記事ではこの「Project Maven 2.0」とも呼ばれる事件の全容を、わかりやすく整理します。

何が起きたか|社員600人の公開書状

2026年4月の発端

2026年4月、Googleと米国防総省(DoD)の間で新しいAI契約が結ばれました。

その内容を最初に詳細報道したのは9to5Google(4月28日)。Googleの大規模言語モデル「Gemini」を、機密ネットワーク上で「あらゆる合法的な政府目的」に使えるという内容でした。

この知らせを受けて社員側がすぐに動きます。4月27日には600人超が連名で署名し、スンダー・ピチャイCEO宛ての公開書状を提出(Washington Postが報じました)。

書状の主張

書状は次の3点を強く求めています。

  • 機密目的でのAI利用契約に応じないこと
  • かつての「兵器・違法な監視に使わない」原則の復活
  • 社員が「自分のコードがどう使われたか」を知る権利の確保

署名者の多くはGoogle DeepMind出身の研究者でした。DeepMind研究科学者のアレックス・ターナー氏はFortune誌に「Googleは利用を拒否できないと認め、政府要請で安全フィルタを変更すると約束してしまった」と語っています。

署名は1,000人規模へ拡大

最初は600人だった署名者は、5月初旬までに約1,000人規模まで膨らみました。

抗議の輪は社内に留まらず、5月5日にはDeepMindの英国拠点で労組結成の投票が行われ、CWU(英国通信労組)メンバーの98%が賛成。Googleに対して10営業日以内に組合を承認するよう通告しました。

契約の中身|「あらゆる合法目的」とは

機密ネットワークでの利用

注目すべき契約条項を整理します。

まず機密データを扱う米軍ネットワーク上でGeminiが稼働すること。これは民間商用版とは別系統で、軍が独立に運用します。

次に、用途は「あらゆる合法的な政府目的」と非常に幅広く規定されました。「合法であれば」何にでも使える、というわけです。

安全フィルタを政府が調整可能

もっとも議論を呼んだのが、安全フィルタに関する条項です。

契約には「Googleは政府の要請に応じてAIの安全設定とフィルタを調整することを支援する」と書かれています。さらに「Googleは合法的な政府の運用判断に対して拒否権を持たない」とも明記。

つまり、軍が「このフィルタを外したい」と言えば、Google側は基本的に応じる、という建付けです。

OpenAIとの違い

同様の契約を結んだ他社と比較すると、Googleの譲歩の深さが見えます。

  • OpenAI:自社が安全機構について「完全な裁量権を保持」と明記
  • Google:政府の要請で安全フィルタを「調整する」と約束
  • Anthropic:そもそも同条件を拒否し契約凍結

同じ契約のように見えても、各社のスタンスは微妙に違います。Googleはもっとも政府寄りに踏み込んだ格好です。

Project Maven(2018年)との比較

8年前は4,000人が動いた

同じような事件が、過去にもありました。2018年のProject Mavenです。

当時、Googleは国防総省のドローン映像解析プロジェクト「Project Maven」に協力していました。これに反発した社員約4,000人がCEO宛ての反対書状に署名し、12人以上が抗議辞任します。

結果、Googleは2019年3月の契約満了をもって同事業から撤退。その後「AIを兵器・監視に使わない」とする原則を発表しました。

2025年に原則が消えた

しかし2025年2月、Googleは静かに「兵器・監視への利用禁止」条項を公式AI原則から削除します。

この変更はCNBCやアル・ジャジーラなどが報じ、世界的に話題となりました。「7年続いた倫理コミットメントの撤回」と批判されたものの、Googleは公式に大きな説明をしないまま、軍事用途への扉を開けたのです。

なぜ今回は1,000人で止まったか

8年前は4,000人、今回は1,000人。なぜ規模が縮んだのでしょうか。

Fortune誌の分析では、テック業界の大規模レイオフで社員の交渉力が落ちたこと、リモート勤務で社内連帯がつくりにくいこと、社内コミュニケーションツールが厳格化されたことなどが理由として挙げられています。

つまり「社員の声が経営判断を覆す時代」は、もう同じ形では戻らないかもしれない、という見方が広がっています。

他のAI企業はどう動いたか

Anthropicは拒否してリスク指定

同業他社のスタンスは大きく分かれました。

Anthropicは2025年に200億ドル規模の枠組み契約をDoDから受けたものの、「民間監視・自律兵器に使わない」保証を求めて2026年初頭に決裂。

その結果、Anthropicは米国で初めて「サプライチェーン・セキュリティリスク」企業に指定されました。連邦政府機関は同社製品の使用を停止し、現在Anthropicは契約取り消しの違法性を巡って訴訟中です。

OpenAI・xAIは早期合意

一方でOpenAIxAIは2025年7月の段階で各2億ドルのDoD契約を獲得。「エージェント型AI」を米軍内ワークフローに組み込む計画が進んでいます。

OpenAIは安全フィルタの調整を自社判断と明記し、Googleよりは慎重なスタンスを維持。xAIは創業者イーロン・マスクが安全保障に積極的で、Pentagonとの結びつきが強くなっています。

2026年5月にDoDは8社へ拡大

DefenseScoop(5月1日報)によると、米国防総省は機密ネットワーク向けAI契約を8社へ拡大。Anthropicは除外されたまま、Microsoft、Amazon、Nvidiaなどの大手が新たに加わりました。

つまり「AnthropicがNoなら他がYesと言う」状況が完成しつつあり、個社の倫理的判断だけで軍事AIを止めることは難しくなっています。

日本市場への影響|AI企業と国防の境界線

日本では類例があるか

日本でも防衛省はAI活用を急速に拡大しています。NEC、富士通、三菱電機などが防衛AI関連の研究開発に関与。

ただ、米国のような「Geminiを丸ごと機密ネットワークに置く」規模の契約は表面化していません。生成AIのフロンティアモデルを国内で持つPFN、ELYZA、Sakana AIなどが今後どう判断するかが注目点です。

Geminiユーザーへの影響

日本の個人ユーザーが心配する必要があるか、整理します。

結論から言えば、今回の契約は機密ネットワーク向けの専用Geminiであり、私たちが日々使うConsumer版・Workspace版とは別系統です。Googleもデータ流用は否定しています。

ただ、「安全フィルタを政府要請で調整する」前例ができたことで、将来的に商用版にも何らかの影響が及ぶ可能性は否定できません。少なくとも「中立な技術プロバイダー」というGoogleの自己像は揺らいだと見るアナリストが多いです。

国内エンジニアへの教訓

日本のAI技術者にとっても他人事ではありません。

第一に、自分のコードがどこで使われるか把握する権利を、雇用契約や倫理規定でどう担保するかという論点。第二に、会社の倫理原則が静かに削除される可能性への警戒。第三に、ユニオン化や内部告発といった集団行動の選択肢を理解しておく必要性。

「働く側の倫理」と「会社のビジネス判断」がぶつかる場面は、日本企業でも遠からず増えていくと予想されます。

よくある質問(FAQ)

Q. Geminiが本当に兵器に使われるのですか?

A. 契約上は「自律兵器の直接制御」「国内大量監視」には一定の制限がありますが、それ以外の軍事利用は幅広く認められています。

現在の大規模言語モデルは速度・サイズの面で兵器システムに直接搭載するには非効率と言われています。ただし、情報分析、作戦計画、サイバー攻防、心理戦・情報戦などには十分使える性能です。「兵器を直接動かす」のではなく「兵器を運用する判断を支援する」用途で広がるとみられます。

Q. なぜGoogleは2025年に倫理原則を変えたのですか?

A. 公式説明は限定的ですが、米中AI競争の激化と、トランプ政権下での産業政策変化が背景にあります。

2025年初頭、米政府は中国に対抗するため自国テック企業のフル参戦を求める方向に転換。Googleは「中立な民間企業」のままでは取り残されると判断し、原則を柔軟化したと見られています。投資家からの「成長機会を逃すな」というプレッシャーもあったと報じられています。

Q. 社員600人の公開書状に効果はあるのですか?

A. 短期的にGoogleが契約を撤回する可能性は低いですが、長期的な企業評判には大きな影響があります。

2018年のProject Mavenでは4,000人が動いて契約撤回まで持っていきました。今回は1,000人規模で、Googleは契約を維持する方針です。ただし、優秀な研究者の流出、採用面でのブランド毀損、株主への説明責任など、間接的なコストは無視できません。

Q. DeepMindの労組はどうなりましたか?

A. 英国のCWU(通信労組)とUnite(統一労組)への加入を求める投票で98%が賛成しました。

これはフロンティアAI研究所として世界初の労組結成の動きです。Googleには10営業日以内に組合を承認するか、調停交渉に応じるよう要求が出されました。承認されなければ法的手続きで強制承認を目指します。労組は「兵器・違反監視向けAIを開発しない」コミットメントの復活も要求項目に挙げています。

Q. Anthropicが排除されているのに、なぜ事業を継続できるのですか?

A. 民間企業向け事業(Claude API、Claude Code等)は引き続き堅調で、政府以外の収益が支えています。

連邦政府機関での利用停止は痛手ですが、Anthropicの主収益はあくまで企業向けAPIと開発者向けツール。AWS、Google Cloudなど大型投資家もついており、サプライチェーンリスク指定の違法性を巡る訴訟も準備されています。同社の姿勢は「倫理を貫く」ブランドとして一部投資家に評価されています。

Q. 日本の自衛隊もGeminiを使う可能性はありますか?

A. 現時点で具体的な契約は確認されていませんが、技術的・制度的に不可能ではありません。

日本では2025年12月にGoogleの「Gemini for Government」が一部公的機関向けに提供開始されました。自衛隊での利用は機密性・サプライチェーンセキュリティの観点で慎重な議論が必要ですが、米国の動きを受けて議論が活発化する可能性は高いです。経産省・防衛省のAI関連有識者会議でも、今後この種の議題が増えると見られます。

まとめ

  • 2026年4月、Googleが米DoDとGemini軍事利用契約を締結
  • 社員600人超(最終1,000人規模)がピチャイCEOに公開書状で抗議
  • DeepMind英国チームは98%賛成で労組結成
  • 契約は「あらゆる合法目的」での利用を許可し安全フィルタも政府要請で調整
  • 2018年Project Mavenでは4,000人が動き契約撤回、今回は規模半分以下
  • Anthropicは拒否し「サプライチェーンリスク」に指定、訴訟中
  • OpenAI・xAIは契約済み、Microsoft等を含め8社に拡大
  • 日本でも防衛AIの議論が活発化、AI企業の倫理判断が焦点に

次のアクション: 普段使うAIサービスの利用規約・AI原則を一度読んでみてください。「軍事利用」「政府提供」「データ流用」の項目に、過去と比べてどんな変化があるか確認すると、業界の構造変化が見えてきます。

参考文献

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です