- Anthropicが大量監視・自律兵器へのClaude使用を拒否
- 米国防総省が米企業初の「安保リスク」指定を発動
- 3月9日、連邦裁判所に提訴し指定取り消しを求める
Claude(クロード)を開発するAI企業Anthropicは2026年3月9日、米国防総省(ペンタゴン)を相手取り連邦裁判所に提訴しました。
ペンタゴンがAnthropicを「国家安全保障上のサプライチェーンリスク」に指定したことを受け、その撤回と連邦機関への適用停止を求めています。
今回の対立の発端は、Anthropicが定めた「利用制限」にあります。
同社はClaudeについて、アメリカ国民への大規模監視や、人間の判断を介さない自律型兵器への使用を禁止するポリシーを設けています。
国防総省はこれに反発し、「すべての合法的な目的」でClaudeを使用できるよう条件変更を要求。Anthropicが拒否したことで、今回の制裁に至りました。
「サプライチェーンリスク」指定はもともと、外国の敵対勢力によるサイバー攻撃などを想定した措置です。
米国内の民間企業に適用されるのは今回が初めてであり、AI業界全体に衝撃が走りました。
さらにトランプ大統領は連邦政府職員によるClaudeの利用停止を指示。指定から数時間後には、OpenAIが国防総省との新たな契約を締結するという動きもありました。
こうした状況に対し、GoogleのチーフサイエンティストJeff Dean氏を含むOpenAIおよびGoogleの社員37名が、Anthropicの訴訟を支持する法廷意見書に連名で署名。
「競合他社の研究者たちが同業他社の訴訟を支持する」という異例の連帯が生まれています。
今後、この裁判はAIの軍事利用と企業の倫理的方針のどちらを優先すべきか、という問いに対する社会的な判断を迫るものとなりそうです。

「生成AIで業務効率を上げたい」、「ChatGPTを実務で使えるようになりたい」 このような方に