AIツール2026年5月更新

Pentagon AIブラックリストとは?国防総省が8社契約しAnthropicを除外した理由・サプライチェーンリスク指定・Claude軍事利用拒否を整理【2026年5月】

公開日: 2026/05/09
Pentagon AIブラックリストとは?国防総省が8社契約しAnthropicを除外した理由・サプライチェーンリスク指定・Claude軍事利用拒否を整理【2026年5月】

この記事のポイント

2026年5月1日、米国防総省(Pentagon)はAnthropicを除外したまま機密ネットワーク向けAI契約を8社と締結しました。サプライチェーンリスク指定・Claudeの軍事利用拒否・連邦地裁の仮差止・日本ユーザーへの影響まで、一次情報ベースで整理します。

「Pentagon AIブラックリスト」とは、米国防総省(DoD/通称Pentagon)がClaudeを開発するAnthropicを連邦調達のサプライチェーンから排除した一連の措置を指す通称です。2026年5月1日、Pentagonは機密ネットワーク向けAI契約をOpenAI・Google・Microsoft・AWS・NVIDIA・Oracle・SpaceX・Reflectionの8社と締結しましたが、Anthropicは契約パートナーから外されました。

ただし日本のユーザーや企業がClaudeを業務利用する場合、現時点では直接的な制限は発生しません。今回の措置は米連邦業務の調達に限定されており、商用利用への法的な強制力はありません。

この記事でわかること:

  • Pentagon AIブラックリストの全体像と「サプライチェーンリスク指定」の意味
  • 2025年7月の契約締結から2026年5月の8社契約までの完全時系列
  • Anthropicが譲らなかった2つの「red lines(譲歩できない一線)」
  • 連邦地裁が下した仮差止判決の内容と意味
  • 日本企業・個人ユーザーがClaudeを使い続けてよいかの判断基準
  • 今後のAIベンダー選定で見るべき新しいチェック項目

この記事が向いている人: Claudeを業務利用している企業・開発者、生成AIの調達や情報セキュリティに関わる担当者、AI業界の規制動向をフォローしたい読者。

⚠️ 注意: Pentagon・Anthropic・連邦裁判所の動向は流動的で、本記事公開後に状況が変化する可能性があります。重要な意思決定を行う前に各社の公式声明・最新報道を必ず確認してください。

Pentagon AIブラックリストとは(基本情報)

Anthropic公式声明『Where things stand with the Department of War』のヘッダー(出典: ITmedia / Anthropic)

出典: ITmedia NEWS(Anthropic公式声明より)

「Pentagon AIブラックリスト」は、米国防総省がAnthropic(Claudeの開発元)を連邦調達から排除した措置の通称です。正式な行政アクションとしては以下の2点が中核になります。

ブラックリスト化の中核となる2つの行政アクション

措置

時期

内容

サプライチェーンリスク指定

2026年3月

FASCSAおよび 10 U.S.C. § 3252 を根拠に、防衛契約者がAnthropic製品を契約履行に使用することを実質的に禁じる

8社契約からの除外

2026年5月1日

IL6/IL7(機密区分)の機密ネットワーク向けAI契約を、Anthropicを除く8社と締結

「ブラックリスト」というのはあくまで報道で使われている通称で、Pentagon自身が公式にこの言葉を使っているわけではありません。ただしPentagon CTOであるEmil Michael次官(Under Secretary of Defense for Research and Engineering)は2026年5月1日のCNBCインタビューで「Anthropicは依然としてブラックリスト対象」と明言しています。

なぜこの問題が日本でも注目されるのか

Anthropicの主力製品Claudeは、日本でも法人・個人ユーザーが急速に増えており、業務利用・コーディング支援・社内チャットボットなど多様な領域で導入されています。「米国政府がClaudeを排除した」というニュースは、日本の利用者にも次の不安を生みました。

  • Claudeは今後も使い続けて問題ないのか
  • 自社の生成AI調達にどんな影響があるのか
  • なぜAnthropicは政府の要求を拒否したのか

本記事では、これらを一次情報ベースで整理します。Claudeそのものの基本情報はClaudeとは?機能・料金・使い方をわかりやすく解説も参照してください。

時系列まとめ:2025年7月の契約締結から2026年5月の除外まで

Pentagon AIブラックリストの経緯は、約10か月のあいだに「契約 → 決裂 → 訴訟 → 仮差止 → 8社契約」と急展開しています。一覧で押さえると論点が整理しやすくなります。

全体時系列

日付

出来事

2025年5–6月

Anthropic、米国安全保障向け派生モデル「Claude Gov」を発表

2025年7月

DoD、Anthropicと最大2億ドル規模の契約締結。Claudeが「初の機密ネットワーク承認 frontier モデル」となる

2025年12月

Hegseth国防長官、AIプラットフォーム「GenAI.mil」(IL5)発表。初期はGoogle Geminiを採用

2026年1月

xAI Grokが追加契約。Claudeが対ベネズエラ作戦で使用との報道

2026年2月24日

AnthropicとPentagonが会談

2026年2月26日

Dario Amodei CEO、公式声明で2つの red lines を維持表明

2026年2月27日

Anthropic拒否確定。Trump大統領が連邦政府機関にAnthropic使用即時停止を指示。同日OpenAIがDoDと機密AI利用合意を発表

2026年3月

Pentagon、Anthropicを正式に「サプライチェーンリスク」に指定

2026年3月26日

カリフォルニア北部地区連邦地裁・Rita F. Lin判事、仮差止(preliminary injunction)を認可

2026年4月8日

D.C. Circuit 連邦控訴裁、Anthropic側の追加申立を却下(最終決定ではない)

2026年4月21日

Trump大統領、CNBCで「Anthropicは態度を改めつつあり、合意は可能」と発言

2026年5月1日

Pentagon、8社(OpenAI/Google/NVIDIA/Microsoft/AWS/Oracle/SpaceX/Reflection)と機密ネットワーク向けAI契約発表。Anthropicは引き続き除外

2026年5月初旬

Pentagon CTO Emil Michael、「Anthropicはなおブラックリスト対象。ただしMythosは別の国家安全保障案件」と発言

注: 2025年7月の契約金額・対ベネズエラ作戦での使用などは大手メディアの報道ベースであり、Pentagon側の公式契約文書原文は一部のみが公開されています。

何が決定的な分岐点だったのか

最大の分岐点は2026年2月の交渉決裂です。Pentagon側は「軍はClaudeを all lawful purposes(あらゆる合法的用途) で使えるべきだ」と要求し、Anthropic側はこれに対しUsage Policy(利用規約)と red lines は維持すると回答しました。これが直後のサプライチェーンリスク指定と、3か月後の8社契約からの除外につながっています。

なぜAnthropicは除外されたのか:2つの「red lines」

Anthropic公式声明『A statement on our discussions with the Department of War』(出典: Anthropic)

出典: Anthropic — Statement on the Department of War

Pentagonの要求にAnthropicが応じられなかった理由は明確です。Dario Amodei CEOが2026年2月26日に発表した公式声明(Statement on the Department of War)で、譲歩できない2つの一線として明示されています。

Anthropicの red lines

項目

Anthropicの立場

大規模な国内監視(mass domestic surveillance)

「民主的価値と相容れない」として用途提供を拒否。国外情報活動は支持。

完全自律型兵器(fully autonomous weapons)

「現在のフロンティアAIは完全自律兵器の制御に十分な信頼性がない」として拒否。部分自律兵器(人間判断が残るもの)は支持。

ポイントは、Anthropicは軍事利用そのものを拒否したわけではないという点です。ウクライナで使用されているような部分自律兵器は支持しており、現にClaude Govは2025年から国家安全保障領域で運用されてきました。「人間判断を完全に排除するシステム」と「米国民への大規模監視」だけが、Usage Policy上で線が引かれています。

Pentagon・政権側の主張

一方、Pentagon側の主張も明確です。

  • Pete Hegseth国防長官(報道ベース):「ボーイングが飛行機を納品しながら、誰を撃つかまで命令しようとするようなものだ」
  • Pentagon CTO Emil Michael:「冗長性が必要だ(I need redundancy)」「単一モデル一本化はしない(never single-threaded)」「我々と本気で組まないパートナーがいた、と学んだ」
  • Trump大統領:連邦政府全機関に対し「Anthropic製品の使用を即時停止せよ」と指示

両者のずれは「ベンダーが顧客の用途を制限すべきか否か」という、汎用AIガバナンスの根本論点です。Anthropicが守ろうとした Usage Policy は、商用ユーザーにも同じ基準で適用される一般規約と地続きであり、ここを譲ると企業利用全体のガバナンス設計に波及します。

Pentagonと契約した8社:何を提供するのか

Pentagonと契約した8社の1つReflection AIの公式ロゴ(出典: Reflection AI)

出典: Reflection AI 公式サイト

2026年5月1日、Pentagonは機密ネットワーク(IL6/IL7)向けAI契約を8社と締結したと発表しました。チップ・クラウド3大手・衛星通信・open-weight スタートアップを揃え、「単一プロバイダ依存の解消」が明確に意識された構成です。

契約8社の役割(報道ベース)

企業

主な提供内容

OpenAI

機密環境向け frontier model(GPT系)

Google

Gemini 系 frontier モデル

Microsoft

Azure 経由のモデル提供および Copilot for Defense

Amazon Web Services(AWS)

GovCloud High/Bedrock 経由のホスト

NVIDIA

推論ハードウェア/DGX系

Oracle

Oracle Cloud for Defense

SpaceX

Starlink経由の現場向けモデルアクセス

Reflection(Reflection AI)

Open-weight frontier model および Asimov コードエージェント

8社契約 vs Anthropicの姿勢

比較項目

契約8社

Anthropic

機密ネットワーク向け契約(2026年5月)

締結

除外

軍事用途の制約

「all lawful purposes」を許容(OpenAIはUsage Policyを2026年2月に改定)

red lines を維持

完全自律兵器

明示的拒否なし

拒否

国内大規模監視

明示的拒否なし

拒否

Pentagon側の評価

冗長性確保のための主要パートナー

「協力的でないパートナー」と位置付け

Pentagon CTOのEmil Michaelは「これからはnever single-threaded(特定モデル1社に縛られない)」と明言しており、戦略はAIベンダー多元化に明確にシフトしています。OpenAIやGoogleの強みについてはClaude vs ChatGPT徹底比較Claude vs Gemini徹底比較も参考になります。

サプライチェーンリスク指定の法的根拠

「サプライチェーンリスク指定」は、Pentagonが個別に発令できる強い行政措置です。日本語では報道で「ブラックリスト」と訳されることが多いですが、米国法上は2つの根拠法に分かれて整理されます。

根拠となる2つの法律

法律

内容

FASCSA(Federal Acquisition Supply Chain Security Act)

Federal Acquisition Security Council の勧告 → 国防長官が排除命令(exclusion / removal order)を発出可能

10 U.S.C. § 3252

国家安全保障システムを伴う調達において、国防長官が独立の権限で「サプライチェーンリスク低減のため」と書面決定を行えば供給元を排除可能

通常、FASCSA指定の対象は中国・ロシアなど外国敵対勢力に関連する企業です。たとえば2025年10月の初のFASCSA排除命令はスイス系のAcronis AGに対して発出されました。米国内のAI企業に対するFASCSA級の排除指定は異例中の異例で、米法律事務所Mayer Brown も「前例のない適用」と整理しています。

防衛契約者に課される義務

Anthropicがサプライチェーンリスク指定された結果、米国防衛契約者には以下の義務が発生します(Mayer Brown 解説より整理)。

  • 四半期ごとに SAM.gov(連邦調達ポータル)で新規 FASCSA 命令を確認
  • 契約履行に対象製品を使用したか「合理的調査」を実施
  • 違反確認後3営業日以内に政府へ報告
  • 10営業日以内に緩和計画を提出

⚠️ 重要:適用範囲は「連邦業務」のみ

ここが日本の読者にとって最重要ポイントです。FASCSA指定が法的に縛るのは連邦調達・連邦業務に限られます。Mayer Brown は「Trump大統領が示唆した広範な商用利用禁止には法的根拠がない」と明確に整理しています。

つまり、

  • 米国防衛契約者・連邦機関業務に関わる企業 → Anthropic製品の利用は要再確認
  • それ以外の民間企業(日本企業の通常の業務利用を含む) → 法的な制限は発生しない

司法判断:連邦地裁・Lin判事の仮差止

Pentagonの対応に対しAnthropicは2026年3月、カリフォルニア北部地区連邦地裁に提訴しました。3月26日、Rita F. Lin判事は43ページの判決で仮差止(preliminary injunction)を認可しました。

判決の核心ポイント

「政府への異論を表明したことを理由に米企業を敵対者扱いするオーウェル的概念は、法令が一切支持していない(Nothing in the governing statute supports the Orwellian notion that an American company may be branded a potential adversary and saboteur of the U.S. for expressing disagreement with the government.)」

Lin判事は判決で次の点を指摘しています。

  • サプライチェーンリスク指定の理由は pretextual(口実) であり、真の動機は違法な報復である可能性
  • 第1修正条項(言論の自由) に対する報復の疑い
  • 仮差止により、Trump大統領の「連邦政府全体にAnthropic製品使用を禁止する」指示は執行不可
  • 政府には7日間の執行猶予を付与し、上訴の機会を確保

4月以降の動き

4月8日、D.C. Circuit 連邦控訴裁は仮差止に関するAnthropic側の追加申立を却下しました。ただしこれは仮差止そのものを覆す決定ではなく、本訴訟は地裁で係属中です。

現状を整理すると次のようになります。

領域

現在のステータス

Pentagon の8社契約

Anthropicは引き続き除外

サプライチェーンリスク指定

仮差止により執行停止

連邦政府全体での使用禁止

仮差止により執行不可

他連邦機関でのAnthropic利用

仮差止下で利用継続可能

本案訴訟

係属中

法廷闘争は2026年5月時点で終結しておらず、本案判決まで状況が変動する余地があります。

日本のユーザー・企業への影響:Claudeは使い続けてよいか

ここが多くの読者にとって最も重要な論点です。日本国内の通常の業務利用に法的な直接影響はありません。 理由を分解して整理します。

なぜ日本のユーザーには影響しないのか

  1. FASCSA指定は連邦調達・連邦業務にのみ適用される — 法的拘束力は米国の連邦契約者に限定される
  2. Trump大統領の包括禁止指示は仮差止により執行不可 — 仮差止下では他連邦機関でも利用可能
  3. Anthropicの商用サービスは継続している — Claude.ai、API、Claude Code、Claude for Word すべて通常稼働
  4. Pentagonの主張も「Claudeは依然として米国防総省で最も広く展開されている」 — 排除指定下でも利用は完全には止まっていない

それでも確認しておきたい3つのケース

ただし、以下のケースに該当する場合は事前確認が必要です。

ケース

確認すべきこと

米連邦政府向け業務に関わる開発・SaaS提供

取引先との契約条項にFASCSA関連の記載がないか/サプライチェーン宣言が必要か

米国防衛関連企業のサプライチェーンに含まれる場合

元請企業のAIベンダーポリシーを確認

米国大統領令の影響を受ける米国子会社

米国法人としての対応が必要か社内法務に確認

それ以外の通常の業務利用(社内チャットボット、ドキュメント生成、コーディング支援、カスタマーサポートなど)では、現時点で運用変更の必要はありません。Claudeのプラン・料金はClaudeの料金プラン徹底解説で確認できます。

関連する別のリスクは別問題として整理する

Pentagon AIブラックリストとは別に、2026年3月にはClaude Codeのソースコード流出事件、Claude Mythosの漏洩事件もありました。これらはセキュリティ事案として独立した論点なので、混同しないよう分けて押さえておくとよいでしょう。

AIベンダー選定の新基準:ガバナンスリスクが評価軸になった

今回のPentagon AIブラックリスト騒動が示した最大の教訓は、AIベンダーの選定軸に「ガバナンス姿勢・政治排除リスク」が加わったことです。

従来の選定軸(性能・料金・日本語対応・APIの使いやすさ・セキュリティ)に加えて、以下を確認することが推奨されます。

新しいチェック項目

チェック項目

確認すべき内容

Usage Policy / AUPの一貫性

商用利用にも同じガードレールが適用されるか(自社業務で要件と衝突しないか)

政府・規制リスク

主要市場の政府からの調達排除リスクがあるか

ベンダーロックイン回避

同等のタスクを別ベンダーに切り替えられる構成にしてあるか

データ取扱の透明性

学習利用・ログ保管・第三国移転に関する明示があるか

国家安全保障領域の方針

軍事・監視に関する立場が明確か(あなたの業務と整合するか)

訴訟・行政処分の状況

進行中の重大訴訟がサービス継続に影響しないか

Pentagonと同じく「冗長性」を持つ設計が現実解

Pentagon CTOの「never single-threaded(単一モデル1社に縛られない)」という方針は、企業のAI調達にもそのまま当てはまります。複数ベンダー(例:Claude+ChatGPT+Gemini)を同等タスクで切り替えられる設計にしておけば、ベンダーや規制環境の変化を受けても業務が止まりません。

複数ツール導入のヒントは生成AIツール比較Claude vs ChatGPTClaude vs Geminiを参考にしてください。

こんな人はClaudeを使い続けて問題ない/注意した方がよい

ここまでの内容を踏まえ、利用判断の目安を整理します。

Claudeを使い続けて問題ない人

  • 日本国内の一般企業で社内業務(資料作成・要約・コーディング支援・社内チャット)に使っている
  • 米国連邦政府・米国防衛関連の調達には関与していない
  • 商用利用規約(Anthropic Usage Policy)の範囲で運用している
  • すでに複数のAIベンダーを併用しており、特定ベンダーへの依存が小さい

一度立ち止まって確認した方がよい人

  • 米国連邦政府機関・米国防衛関連企業との取引を持つ
  • 自社サービスが米連邦業務向けSaaSとして提供されている
  • 「単一AIモデルだけに業務を全面依存している」状態である
  • 軍事・大規模監視に類する用途を想定している(Anthropic Usage Policyに抵触する可能性)

検討から外した方がよいケース

  • 完全自律型の意思決定システムをAnthropic製品で実装したい場合(Usage Policy違反のリスク)
  • 大規模な国内監視ユースケース(Usage Policy違反のリスク)

ここで挙げた懸念がない一般ユーザーであれば、Claudeの業務利用を停止すべき法的・実務的理由は確認できません。

よくある質問(FAQ)

Q1. Claude.aiやAPIは日本から普通に使えますか?

A. Claude.ai・Claude API・Claude Code・Claude for Wordなどの商用サービスは日本から通常通り利用できます。Pentagon AIブラックリストは米連邦調達に関する措置であり、日本の一般ユーザー向けサービスは対象外です。

Q2. Anthropicの公式声明はどこで確認できますか?

A. Dario Amodei CEOの2026年2月26日声明はStatement on the Department of Warで公開されています。red lines(大規模国内監視・完全自律型兵器の拒否)の文言は原文を直接参照できます。

Q3. 「サプライチェーンリスク指定」は今も有効ですか?

A. 仮差止により執行が停止された状態です。本案訴訟は係属中で、最終判決によって状況が変わる可能性があります。Pentagonの8社契約においてAnthropicが除外されている事実は仮差止の影響を受けません。

Q4. OpenAIはなぜ契約を取れたのですか?

A. 2026年2月にOpenAIは Usage Policy を改定し、軍事利用に関する条項の制約を緩めたと報じられています。同月27日にPentagonと機密AI利用合意を発表しています。MIT Technology Reviewはこれを「OpenAIの妥協はAnthropicが恐れたものそのもの」と表現しています。

Q5. 「Mythos」とブラックリストは関係ありますか?

A. Pentagon CTOのEmil Michaelは「Anthropicは依然としてブラックリスト対象だが、Mythosは別の国家安全保障案件として扱う」と発言しています。両者は切り分けられて議論されており、現時点では直接的な紐付けはありません。Mythosの詳細はClaude Mythosとはを参照してください。

Q6. Trump大統領の「使用即時停止」指示は今も有効ですか?

A. Lin判事の仮差止により、連邦政府全体に対する包括禁止指示は執行不可となっています。Pentagonの8社契約からの除外という運用上の措置は別の枠組みとして継続中です。

Q7. 日本の防衛関連企業はどう判断すべきですか?

A. 米国連邦業務・米国防衛関連企業のサプライチェーンに含まれる場合は、元請企業のAIベンダーポリシーを確認してください。それ以外の通常の防衛・公共領域では、現時点で日本国内の規制が動いている事実は確認できません。社内法務・調達担当との連携で確認するのが安全です。

まとめ:今わかっていることと、これから注視すべきこと

Pentagon AIブラックリストの全体像を最後に整理します。

確定している事実

  • 2026年5月1日、Pentagonは8社(OpenAI/Google/NVIDIA/Microsoft/AWS/Oracle/SpaceX/Reflection)と機密ネットワーク向けAI契約を締結し、Anthropicを除外した
  • Anthropicは2026年2月26日に red lines(大規模国内監視・完全自律型兵器の拒否)を維持表明し、Pentagonの「all lawful purposes」要求を拒んだ
  • 2026年3月26日、Lin判事が仮差止を認可し、Trump大統領の包括禁止指示は執行不可となった
  • FASCSA指定の法的拘束力は連邦調達に限定される(民間商用利用への直接的法的縛りはない)

流動的・今後注視すべき項目

  • 本案訴訟の判決時期と内容
  • AnthropicとWhite Houseの再交渉の進展
  • 8社契約の運用とAnthropic復帰の可能性
  • 他国(日本含む)の規制が追随するかどうか
  • AIベンダー全般のUsage Policy・軍事利用方針の変化

利用者として今やっておきたいこと

  • 自社のAI利用が連邦業務に該当するかを把握する
  • 単一ベンダー依存になっていないか棚卸しする
  • Usage Policy/AUPと自社業務要件の整合を確認する
  • ベンダーの公式声明・規制動向を継続的にウォッチする

Claudeそのものの基本情報・料金・使い方は以下の記事も合わせて確認すると、現状判断がしやすくなります。

参考資料・一次情報

Anthropic公式

米政府・公的機関

大手メディア・専門メディア

日本語メディア

AIツールの導入でお困りですか?

お客様のビジネスに最適なAIツールをご提案します。まずは無料相談から。

この記事の著者

AI革命

AI革命

編集部

AI革命株式会社の編集部です。最新のAI技術動向から実践的な導入事例まで、企業のデジタル変革に役立つ情報をお届けしています。豊富な経験と専門知識を活かし、読者の皆様にとって価値のあるコンテンツを制作しています。

AI活用ならAI革命にお任せ。サービスを見てみる
AI Revolution Growth Arrow

AIでビジネスを革新しませんか?

あなたのビジネスにAIがどのような価値をもたらすかをご提案いたします。