Anthropicを巡る国防総省問題 — AI企業の倫理的選択が問われる
AI企業は軍事利用を拒否できるか — 30人の技術者が声を上げた背景
はじめに
2026年3月、AI業界で異例の事態が起きました。OpenAIとGoogle DeepMindの従業員30人以上が、競合であるAnthropicを支持する共同声明に署名したのです。
きっかけは、米国国防総省(ペンタゴン)がAnthropicを「サプライチェーンリスク」に指定したことでした。Anthropicが大量監視や自律型兵器のためのAI提供を拒否したことが、その理由です。
この出来事は、AI企業の倫理的選択が事業リスクに直結する時代が来たことを示しています。
何が起きたのか
Anthropicの姿勢
Anthropicは創業以来、AI安全性を最優先する企業として知られています。2月に発表した「Responsible Scaling Policy 3.0」でも、軍事目的でのAI使用に明確な制限を設けていました。
具体的には、以下の用途でのClaude提供を拒否しています。
- 大量監視: 市民の通信や行動を大規模に監視するシステム
- 自律型兵器: 人間の判断なしに攻撃を実行するシステム
- 意思決定の自動化: 人命に関わる判断をAIに委ねるシステム
国防総省の対応
この姿勢に対し、国防総省はAnthropicを「サプライチェーンリスク」に指定しました。つまり、Anthropicの技術に依存することは安全保障上のリスクであるという判断です。
これは事実上、「軍事利用を拒否する企業は政府調達から排除される可能性がある」というメッセージです。
技術者たちの反応
3月9日〜12日にかけて、OpenAIとGoogle DeepMindの従業員30人以上がAnthropicを支持する声明に署名しました。競合企業の従業員が、自社の競合を公に支持するのは極めて異例です。
この声明の背景には、AI技術者たちの間に共有される「AIの軍事利用に対する深い懸念」があります。企業の壁を越えて、技術者としての倫理観が優先された形です。
「#QuitGPT」との接続
この問題は、2月に起きた「#QuitGPT」運動とも深く関連しています。
OpenAIが国防総省との契約を締結した際、250万人のユーザーがボイコットを宣言し、ChatGPTのアンインストール率が295%増加。その受け皿となったのがAnthropicのClaudeで、一時的に米App Store 1位を獲得しました。
「AI技術をどのような目的に使うか」という問いが、ユーザーのサービス選択に直結する時代になったのです。
日本への影響を考える
防衛省のAI導入
日本の防衛省も、AIの導入を積極的に検討しています。米国での議論は、日本にとっても無関係ではありません。
- 自衛隊のAI活用において、どの企業のモデルを採用するか
- 「軍事利用を拒否する企業」を排除するのか、それとも尊重するのか
- AIの倫理基準を誰が決め、どう運用するのか
米国の判断は、日本の防衛・安全保障政策にも影響を与える可能性があります。
企業としてのAI選択
当社のような民間企業にとっても、「どのAIモデルを使うか」は単なる技術選定ではなくなりつつあります。
軍事利用を拒否する企業のAIを選ぶのか、政府との関係を優先する企業のAIを選ぶのか。その選択が企業の社会的姿勢の表明として受け取られる可能性があります。
Googleの動き
注目すべきは、OpenAIとAnthropicが国防総省との関係で対立する中、Googleの親会社Alphabetが静かにペンタゴンとの協力関係を拡大していることです。「倫理」と「ビジネス」のバランスの取り方は、企業によって大きく異なります。
おわりに
AIの軍事利用を巡る議論は、技術の問題であると同時に、社会の問題です。
30人の技術者が企業の壁を越えてAnthropicを支持したことは、AI業界に一つの希望を示しています。技術者の倫理観が、企業の方針や国家の安全保障政策に影響を与えうるという事実です。
当社はソフトウェア開発企業として、また宇宙関連システムの開発経験を持つ企業として、この問題に高い関心を持っています。AI技術がもたらす恩恵を最大化しつつ、その利用方法について責任ある判断を続けていくこと。それが、AI時代の企業に求められる姿勢だと考えています。
本記事は2026年3月時点の情報に基づいています。
著者: 株式会社シーテン — インフラ系から宇宙関連システムまで20年以上の開発経験を持つ技術者集団。2025年より生成AI・AIエージェントを活用したAI駆動開発に本格参入し、自社プロダクト「wagahi」の開発を通じて実践知見を蓄積中。
関連記事:
投稿者プロフィール




