ClaudeがイランでAI兵器になった日 — Anthropicの矛盾と葛藤

はじめに

\n\n

前回の記事で、OpenAIの国防総省契約に対する#QuitGPT運動と、その受け皿としてClaude AIがApp Store 1位を獲得したことをお伝えしました。

\n\n

しかし、その裏で衝撃的な事実が明らかになりました。Claude自身が、米軍のイラン攻撃作戦においてAI兵器システムの中核として使用されていたのです。

\n\n

当社はClaude Codeを日常の開発ツールとして使用しているユーザーです。「当社が使っているAIが戦場でも使われている」という現実に向き合い、事実を整理します。

\n\n

何が起きたのか

\n\n

PalantirのMaven Smart Systemに組み込まれたClaude

\n\n

2026年3月4日、Washington Postが報じたところによると、AnthropicのClaude AIモデルは、Palantir社が開発した「Maven Smart System」に組み込まれる形で、米軍のイラン作戦(Operation Epic Fury)に使用されていました。

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

項目 内容
使用システム Palantir Maven Smart System
AIモデル Claude(Anthropic)
用途 情報分析、標的識別、戦闘シミュレーション
確認方法 国防総省CIO(最高情報責任者)が公式に認める

\n\n

最初の24時間で1,000以上の標的

\n\n

Responsible Statecraft誌の報道によれば、米軍はOperation Epic Fury開始から最初の24時間で1,000以上の標的を攻撃しました。この規模と速度を実現したのが、Claudeを含むAIシステムによるリアルタイム・ターゲティングです。

\n\n

Anthropicの矛盾 — 「安全なAI」企業のジレンマ

\n\n

Anthropicの創業理念

\n\n

Anthropicは「AI安全性」を最重要課題として掲げ、OpenAIから独立した企業です。Responsible Scaling Policy(責任あるスケーリング方針)を業界に先駆けて策定し、AIの軍事利用には慎重な姿勢を示してきました。

\n\n

その同じ企業のAIモデルが、実戦で標的識別に使われている。これは大きな矛盾です。

\n\n

Anthropicの主張 — ガードレールの要求

\n\n

報道によれば、Anthropicは米軍に対して以下の条件を要求していました。

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

Anthropicの要求 内容
完全自律兵器への使用禁止 人間の判断を介さない攻撃への利用を禁止
大規模監視への使用禁止 米国市民に対する監視目的での利用を禁止

\n\n

Anthropicの立場は「軍事利用を全面的に拒否する」のではなく、「人間の判断を排除しない範囲での利用を認めつつ、特定の用途を禁止する」というものでした。

\n\n

トランプ政権の反撃

\n\n

しかし、トランプ政権はAnthropicのこの姿勢を「非協力的」と受け取りました。

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

日付 政権の対応
3月上旬 連邦機関にAnthropic製品の利用停止を指示
3月上旬 ヘグセス国防長官がAnthropicを「サプライチェーンリスク」に正式指定
180日以内にClaude全製品を軍から排除するよう命令

\n\n

Anthropicの提訴

\n\n

これに対し、Anthropicはトランプ政権を提訴するという異例の対応に出ました。「AI企業が自社製品の利用条件を設定する権利」を法的に争う構えです。

\n\n

#QuitGPTの皮肉な構図

\n\n

ここで、3月初旬の#QuitGPT運動を振り返ると、事態の皮肉さが浮き彫りになります。

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

\n\n

時系列 出来事
2/28 OpenAI、国防総省と契約
2/28 米軍、イラン攻撃開始(Claudeが標的識別に使用)
3/2 #QuitGPT運動、250万人がボイコット
3/2 「倫理的なAI」としてClaude、App Store 1位に
3/4 Claude、イラン作戦での使用が報道で判明

\n\n

ユーザーが「軍事利用するOpenAIを拒否し、安全なClaudeに乗り換えた」その同時期に、Claude自身が戦場で使われていたのです。

\n\n

技術者・ユーザーとしての所感

\n\n

「完全にクリーンなAI」は存在しない

\n\n

当社はClaude Codeのヘビーユーザーです。月額200ドルのMaxプランを契約し、日々の開発にClaude Codeを活用しています。

\n\n

今回の件で感じたのは、「完全にクリーンなAI企業」を見つけることの困難さです。OpenAIは軍事契約を自ら選択し、Anthropicはガードレールを要求しつつも結果的に軍事利用されている。ユーザーができることは、企業の姿勢を注視し続けることしかありません。

\n\n

「使う」と「使われる」の距離

\n\n

当社がClaude Codeで書くのはWebアプリケーションのコードです。同じAIモデルが標的識別にも使われている。この「使う目的の違い」と「同じ技術基盤」のギャップは、AIが汎用技術である以上、避けられない問題です。

\n\n

Anthropicの対応への評価

\n\n

ガードレールを要求し、政権の圧力に対して法的に争うというAnthropicの姿勢は、少なくとも「何も言わずに軍事利用を受け入れる」よりは誠実だと感じています。ただし、その間もClaude自体は作戦に使われ続けているという現実は変わりません。

\n\n

おわりに

\n\n

今回の件は、AI業界全体が避けて通れない問いを突きつけています。「AIの軍事利用をどこまで許容するのか」「AI企業はユーザーの信頼をどう守るのか」「ユーザーはAIツールの社会的影響にどう向き合うべきか」。

\n\n

簡単な答えはありません。当社としては、引き続きClaude Codeを開発ツールとして使用しながら、Anthropicの対応とAI業界全体の動向を注視していく方針です。

投稿者プロフィール

Mark4
Mark4