ClaudeがイランでAI兵器になった日 — Anthropicの矛盾と葛藤
はじめに
\n\n
前回の記事で、OpenAIの国防総省契約に対する#QuitGPT運動と、その受け皿としてClaude AIがApp Store 1位を獲得したことをお伝えしました。
\n\n
しかし、その裏で衝撃的な事実が明らかになりました。Claude自身が、米軍のイラン攻撃作戦においてAI兵器システムの中核として使用されていたのです。
\n\n
当社はClaude Codeを日常の開発ツールとして使用しているユーザーです。「当社が使っているAIが戦場でも使われている」という現実に向き合い、事実を整理します。
\n\n
何が起きたのか
\n\n
PalantirのMaven Smart Systemに組み込まれたClaude
\n\n
2026年3月4日、Washington Postが報じたところによると、AnthropicのClaude AIモデルは、Palantir社が開発した「Maven Smart System」に組み込まれる形で、米軍のイラン作戦(Operation Epic Fury)に使用されていました。
\n\n
| 項目 | 内容 |
|---|---|
| 使用システム | Palantir Maven Smart System |
| AIモデル | Claude(Anthropic) |
| 用途 | 情報分析、標的識別、戦闘シミュレーション |
| 確認方法 | 国防総省CIO(最高情報責任者)が公式に認める |
\n\n
最初の24時間で1,000以上の標的
\n\n
Responsible Statecraft誌の報道によれば、米軍はOperation Epic Fury開始から最初の24時間で1,000以上の標的を攻撃しました。この規模と速度を実現したのが、Claudeを含むAIシステムによるリアルタイム・ターゲティングです。
\n\n
Anthropicの矛盾 — 「安全なAI」企業のジレンマ
\n\n
Anthropicの創業理念
\n\n
Anthropicは「AI安全性」を最重要課題として掲げ、OpenAIから独立した企業です。Responsible Scaling Policy(責任あるスケーリング方針)を業界に先駆けて策定し、AIの軍事利用には慎重な姿勢を示してきました。
\n\n
その同じ企業のAIモデルが、実戦で標的識別に使われている。これは大きな矛盾です。
\n\n
Anthropicの主張 — ガードレールの要求
\n\n
報道によれば、Anthropicは米軍に対して以下の条件を要求していました。
\n\n
| Anthropicの要求 | 内容 |
|---|---|
| 完全自律兵器への使用禁止 | 人間の判断を介さない攻撃への利用を禁止 |
| 大規模監視への使用禁止 | 米国市民に対する監視目的での利用を禁止 |
\n\n
Anthropicの立場は「軍事利用を全面的に拒否する」のではなく、「人間の判断を排除しない範囲での利用を認めつつ、特定の用途を禁止する」というものでした。
\n\n
トランプ政権の反撃
\n\n
しかし、トランプ政権はAnthropicのこの姿勢を「非協力的」と受け取りました。
\n\n
| 日付 | 政権の対応 |
|---|---|
| 3月上旬 | 連邦機関にAnthropic製品の利用停止を指示 |
| 3月上旬 | ヘグセス国防長官がAnthropicを「サプライチェーンリスク」に正式指定 |
| — | 180日以内にClaude全製品を軍から排除するよう命令 |
\n\n
Anthropicの提訴
\n\n
これに対し、Anthropicはトランプ政権を提訴するという異例の対応に出ました。「AI企業が自社製品の利用条件を設定する権利」を法的に争う構えです。
\n\n
#QuitGPTの皮肉な構図
\n\n
ここで、3月初旬の#QuitGPT運動を振り返ると、事態の皮肉さが浮き彫りになります。
\n\n
| 時系列 | 出来事 |
|---|---|
| 2/28 | OpenAI、国防総省と契約 |
| 2/28 | 米軍、イラン攻撃開始(Claudeが標的識別に使用) |
| 3/2 | #QuitGPT運動、250万人がボイコット |
| 3/2 | 「倫理的なAI」としてClaude、App Store 1位に |
| 3/4 | Claude、イラン作戦での使用が報道で判明 |
\n\n
ユーザーが「軍事利用するOpenAIを拒否し、安全なClaudeに乗り換えた」その同時期に、Claude自身が戦場で使われていたのです。
\n\n
技術者・ユーザーとしての所感
\n\n
「完全にクリーンなAI」は存在しない
\n\n
当社はClaude Codeのヘビーユーザーです。月額200ドルのMaxプランを契約し、日々の開発にClaude Codeを活用しています。
\n\n
今回の件で感じたのは、「完全にクリーンなAI企業」を見つけることの困難さです。OpenAIは軍事契約を自ら選択し、Anthropicはガードレールを要求しつつも結果的に軍事利用されている。ユーザーができることは、企業の姿勢を注視し続けることしかありません。
\n\n
「使う」と「使われる」の距離
\n\n
当社がClaude Codeで書くのはWebアプリケーションのコードです。同じAIモデルが標的識別にも使われている。この「使う目的の違い」と「同じ技術基盤」のギャップは、AIが汎用技術である以上、避けられない問題です。
\n\n
Anthropicの対応への評価
\n\n
ガードレールを要求し、政権の圧力に対して法的に争うというAnthropicの姿勢は、少なくとも「何も言わずに軍事利用を受け入れる」よりは誠実だと感じています。ただし、その間もClaude自体は作戦に使われ続けているという現実は変わりません。
\n\n
おわりに
\n\n
今回の件は、AI業界全体が避けて通れない問いを突きつけています。「AIの軍事利用をどこまで許容するのか」「AI企業はユーザーの信頼をどう守るのか」「ユーザーはAIツールの社会的影響にどう向き合うべきか」。
\n\n
簡単な答えはありません。当社としては、引き続きClaude Codeを開発ツールとして使用しながら、Anthropicの対応とAI業界全体の動向を注視していく方針です。
投稿者プロフィール




