#QuitGPTその後 — Claude App Store 1位の裏側
はじめに
\n\n
2026年2月末、AI業界を揺るがす出来事が起きました。OpenAIが米国防総省と契約を締結し、米軍の機密ネットワークへのAI配備を開始したのです。
\n\n
この決定に対し、世界中のユーザーが「#QuitGPT」を掲げてボイコット運動を展開。その結果、思いもよらない形でAI業界の勢力図が塗り替わることになりました。
\n\n
250万人のボイコットが起きるまで
\n\n
OpenAIの決断
\n\n
2026年2月28日、OpenAIは米国防総省(ペンタゴン)との契約を正式に締結しました。契約内容は、米軍の機密ネットワークへのAI配備であり、「あらゆる合法目的」での利用を許可するという包括的なものでした。
\n\n
OpenAIはかつて、利用規約で軍事目的の使用を明確に禁止していました。しかし、2024年初頭にその条項を緩和し、今回の契約に至っています。
\n\n
ユーザーの反発
\n\n
この報道が広まると、SNS上で「#QuitGPT」というハッシュタグが急速に拡散しました。
\n\n
| 指標 | 数値 |
|---|---|
| ボイコット参加者数 | 250万人超 |
| ChatGPTアンインストール数 | 前日比295%増 |
| 運動の広がり | 世界40カ国以上 |
\n\n
ユーザーの主張は明確でした。「自分たちが日常的に使っているAIツールが、軍事目的に転用されることへの拒否」です。
\n\n
Claudeが米App Store 1位に
\n\n
受け皿としてのAnthropic
\n\n
2026年3月2日、ChatGPTからの大量離脱の受け皿として、AnthropicのClaude AIアプリが米国App Storeで初の1位を獲得しました。
\n\n
これは単なる「代替品への乗り換え」ではありません。Anthropicが創業以来掲げてきた「AI安全性」という理念が、ユーザーの価値観と共鳴した結果です。Anthropicの共同創業者であるダリオ・アモデイ氏は、元OpenAIの副社長であり、まさにAIの安全性に対する考え方の違いからOpenAIを離れた人物です。
\n\n
数字が語る「信頼の移動」
\n\n
App Store 1位という結果は、技術的な優劣ではなく、企業の倫理的姿勢に対する信頼で決まったという点が重要です。Claude自体の機能が一夜にして向上したわけではありません。変わったのは、ユーザーが「どの企業にAIを任せたいか」という判断基準です。
\n\n
「成功税」— Claude Codeにもアクセスエラーが多発
\n\n
しかし、この急激なユーザー流入はAnthropicのインフラに深刻な負荷をもたらしました。3月2日から3日にかけて、claude.ai、モバイルアプリ、そして当社が日常的に使用しているClaude Codeでも認証エラーやHTTP 500/529エラーが多発し、開発作業が一時停止する事態に陥りました。
\n\n
| 日時 | 障害内容 |
|---|---|
| 3/2 11:49 UTC〜 | claude.aiで「Elevated errors」発生。認証失敗、500エラー多発 |
| 3/2〜3/3 | 24時間以内に2回の大規模障害。Claude Codeも認証不能に |
\n\n
Anthropicは原因を「前例のない需要の急増」と説明しましたが、コミュニティではこれを「success tax(成功税)」 — 人気が出すぎた代償 — と皮肉を込めて呼んでいました。無料ユーザーは1月比で60%以上増加し、有料会員は2倍以上に膨らんでいたのです。
\n\n
当社にとっては、「倫理的に正しい企業を選んだら、人気殺到でサービスが止まった」という何とも皮肉な体験でした。
\n\n
OpenAIの対応 — 契約の修正
\n\n
ボイコットの規模に危機感を覚えたOpenAIは、契約内容の一部を修正する対応に出ました。
\n\n
| 修正項目 | 内容 |
|---|---|
| 国内監視への利用 | 禁止を追記 |
| NSA(国家安全保障局)での利用 | 禁止を追記 |
\n\n
しかし、「軍事利用そのものの撤回」ではなく、あくまで「利用範囲の限定」にとどまったため、ユーザーの不満が完全に解消されたとは言い難い状況です。
\n\n
当社の所感 — AI企業の選択が問われる時代
\n\n
当社は日常的にClaude Codeを開発ツールとして使用しており、この一連の動きを身近な出来事として見ていました。
\n\n
今回の#QuitGPT運動は、AI業界に対する重要な問いかけを含んでいます。
\n\n
1. ユーザーはAIの「使われ方」を気にしている
\n\n
AIが高性能であることは、もはや差別化要因ではありません。ChatGPTもClaudeも、日常のタスクにおいて十分な能力を持っています。その状況下で、ユーザーの選択を左右したのは「企業の倫理的姿勢」でした。
\n\n
2. AI企業の「信頼」は脆い
\n\n
OpenAIが長年築いてきたブランドと市場シェアが、わずか数日で大きく揺らぎました。250万人という数字は、ChatGPTのアクティブユーザー全体から見れば一部かもしれません。しかし、テクノロジーの選択が「技術」から「倫理」へと移行しつつある兆候として、無視できないものがあります。
\n\n
3. 中小企業にとっての示唆
\n\n
当社のような中小企業がAIツールを選択する際にも、この視点は重要です。業務データをどのAIに預けるかという判断は、そのAI企業がデータをどう扱うかという信頼の問題と直結しています。
\n\n
おわりに
\n\n#QuitGPT運動とClaude App Store 1位という出来事は、2026年のAI業界を象徴するエピソードとして記憶されることになるでしょう。\n\n
ただし、この話には続きがあります。Claude App Store 1位の裏で、実はClaude自身も別の形で軍事利用されていたという事実が、後に明らかになることになります。この点については、別の記事で改めてお伝えします。
\n\n
AI技術の発展と、その利用に関する倫理的な議論は、これからますます重要になっていきます。当社としても、AIの「技術的な優劣」だけでなく、「どのような姿勢で開発・運営されているか」という視点を持ち続けたいと考えています。
投稿者プロフィール





