米国家安全保障局、禁止対象のAnthropic製AI利用か
straitstimes.com
2026年4月21日 (火)
- •米国家安全保障局(NSA)の職員がAnthropicのAI「Mythos」を使用しているとの報告が浮上した。
- •当該プラットフォームは内部のセキュリティブラックリストに記載されているにもかかわらず、利用が継続されているとされる。
- •今回の事態は、高セキュリティな政府機関においてAI活用ポリシーを強制する困難さを浮き彫りにしている。
米国家安全保障局(NSA)がAnthropic社のAIツール「Mythos」を利用していたとされる報告は、インテリジェンス・コミュニティに大きな波紋を広げた。Axios(米国のニュースサイト)によると、この利用は同機関が定める安全なソフトウェアリストから除外され、セキュリティ上のブラックリストに入れられていたにもかかわらず行われていたという。
これは単なる事務的な手違いではない。生成AIの急速な導入と、厳格なセキュリティ対策が必要とされる政府機関の現場が直面する、深い溝を象徴する出来事だ。本質的には、業務遂行上の必要性とリスク管理の間の対立である。
現場の技術分析官や諜報員は、データ統合や解析業務を大幅に効率化するためにAIツールを求めている。しかし、これらのツールはクラウドベースで構築されていることが多く、機密情報を扱うために求められる「ゼロトラスト」基準を満たしていないケースが少なくない。ブラックリストは、データ漏洩を防ぎ、機密がAIの学習データへ混入することを防ぐための防波堤である。
機関が自ら定めたプロトコルを回避する現状は、既存のコンプライアンス枠組みが機能していないことを示唆する。AI技術の更新サイクルに対し、政府の審査プロセスは遅れをとっており、認可外のツールを現場の判断で導入してしまう「シャドウIT」が横行する温床となっている。
政府機関にとって、AIによるモデルのハルシネーション(もっともらしい嘘)やデータ取り扱いミスは、単なるビジネス上の損失では済まされない。国家安全保障を担う組織には、イノベーションの速さと絶対的なセキュリティ要求のバランスを取る、より動的で洗練されたAIガバナンスが求められている。