NSA, 펜타곤 블랙리스트에도 불구하고 AI 모델 도입 강행
- •미국 국가안보국(NSA)이 민감한 자율 작업 및 코딩에 Anthropic의 Mythos Preview를 사용하고 있다.
- •펜타곤은 앞서 공급망 리스크를 이유로 Anthropic을 블랙리스트에 올렸으며, 이로 인해 정부 부처 간 심각한 갈등이 발생했다.
- •전문가들은 Mythos의 고도화된 기능이 오용될 경우 사이버 공격의 취약점을 심화시킬 수 있다고 경고한다.
미국 정보기관 내부에 심상치 않은 불협화음이 포착되었다. 보도에 따르면 미국 국가안보국(NSA)은 Anthropic이 개발한 고성능 거대언어모델(LLM)인 Mythos Preview를 실무에 도입했다. 특히 이번 사안은 공급망 리스크를 우려해 해당 기업을 경계 대상으로 지정했던 펜타곤의 지침과 정면으로 배치된다는 점에서 큰 파장을 낳고 있다. 이는 국가 안보라는 대의와 강력한 외부 생성형 AI 도구의 신속한 도입이 어떻게 충돌할 수 있는지를 극명하게 보여준다.
핵심 쟁점은 인공지능의 성능과 통제 사이의 딜레마에 있다. Mythos는 뛰어난 코딩 능력과 자율 실행 역량을 갖춰 현대적 디지털 작업에는 매우 유용하지만, 동시에 잠재적인 보안 위험 요소를 품고 있다. 일반적인 관점에서는 이를 '이중 용도' 문제로 이해할 수 있다. 즉, 국방 인프라를 자동화하거나 네트워크 코드를 보호하는 시스템이 악용되거나 예기치 않은 오류를 일으킬 경우, 오히려 고도화된 사이버 공격의 문턱을 낮추는 결과를 초래할 수 있다는 점이다.
이번 사례는 AI 혁신의 속도와 다소 경직된 제도적 정책 사이의 지속적인 마찰을 보여준다. 민간 부문은 가장 뛰어난 모델을 시장에 내놓기 위해 치열하게 경쟁하지만, 펜타곤과 같은 정부 기관은 보수적인 방어 체계를 유지해야 할 책임을 진다. 두 영역의 시간대가 충돌할 때, 보안 기관은 최첨단 정보력 확보와 엄격히 검증된 조달 가이드라인 준수 사이에서 어려운 선택을 강요받게 된다.
미국 행정부 관계자와 Anthropic 간의 논의는 이러한 관계가 얼마나 복잡한지 잘 보여준다. 이는 단순히 소프트웨어 구매의 문제를 넘어, 강력한 인지적 인프라를 어떻게 거버넌스 체계 안에 둘 것인가에 대한 협상이다. AI 생태계를 지켜보는 학생들에게 이 사례는 현실 정치에 적용된 'AI 정렬' 연구 모델이 된다. 고도의 자율 시스템이 국가 안보의 핵심에 통합될 때, 최종적인 책임은 누구에게 있는지, 그리고 '킬 스위치'는 누가 쥐고 있는지에 대한 근본적인 질문을 던진다.
결론적으로 NSA가 Mythos 사용을 강행한 것은, 이러한 모델이 제공하는 전략적 이점이 기술 공급망에 가해지는 관료적 신중함보다 더 크다고 판단했음을 의미한다. 향후 우리에게 남겨진 과제는 단순히 가장 똑똑한 모델을 개발하는 것을 넘어, 디지털 방어 체계 내에서 관리 가능한 리스크와 치명적인 취약점을 명확히 구분할 수 있는 견고한 정책 프레임워크를 수립하는 일이다.