NSAがAnthropicのAIを採用、軍の警告と対立
- •米国家安全保障局(NSA)が国防総省によるサプライチェーン・リスク指定を無視してAnthropicのAIツールを導入
- •Anthropicは軍事契約解除を受け、複数の連邦機関を相手取り法的措置を開始
- •機密環境下での生成AI導入をめぐり、連邦政府内で対応が分断される事態が浮き彫りに
国家安全保障と急速に進化する人工知能の交差点で、極めて困難な状況が生じている。最近の報告によれば、米国家安全保障局(NSA)はAnthropicが提供するAIモデルを運用フローに統合した。これは、国防総省が発行した公式のリスク評価に真っ向から反する決定である。本件は、最先端のインテリジェンス能力を求める現場と、サプライチェーン・サイバーセキュリティの厳格な要件を課す機関との間で生じている軋轢を象徴している。
この対立の核心には、Anthropicを一部の軍事ビジネスから排除するサプライチェーン・リスク警告がある。多くの観察者にとって、今回の衝突は、技術的な優位性を即座に優先する情報機関と、標準化されたリスク緩和プロトコルを重視する国防関連機関との間に広がる深い溝を露呈させるものだ。結果として、Anthropicは複数の連邦機関を提訴するという異例の手段に出るに至った。
この法的な対立は、政府の階層組織やセキュリティ基準が、大規模言語モデル(LLM)の台頭にどう適応するかを示す重要な事例となるだろう。民間のAI企業が国家の情報インフラとして不可欠な存在となる中で、従来のソフトウェア調達プロセスは限界に達している。今問われているのは、国防上の厳格で二元的な要件を損なうことなく、現代のAIがもたらす恩恵をいかにして取り入れるかという点である。
AIの現状を追う学生にとって、この事態は商業的なAIが持つ民主化の力と、政府による伝統的で保守的な管理体制という二つの大きな力が衝突する様子を映し出している。我々は、連邦機関が本質的に複雑で不透明な第三者のソフトウェアをどのように分類し、検証し、信頼すべきかを定める「規制の選別」の初期段階を目撃しているのだ。法廷闘争の行方は、今後の連邦政府によるAI関連契約の構造や、その審査プロセスに大きな先例を残すことになるだろう。
もはや問題はコードの品質やモデルの性能だけではない。問われているのは、知能そのもののガバナンスである。