NSA, 보안 우려에도 Anthropic의 AI 도입 강행
- •미국 국가안보국(NSA)이 공급망 위험 논란에도 불구하고 Anthropic의 Mythos에 대한 접근 권한을 확보했다.
- •펜타곤은 앞서 Anthropic의 소프트웨어를 국가 안보 위협 요인으로 분류한 바 있다.
- •NSA는 내부 네트워크의 취약점을 탐지하기 위해 해당 거대언어모델(LLM)을 활용한다.
국가 안보와 인공지능의 접점이 흥미로우면서도 모순적인 새로운 국면을 맞이했다. 최근 보도에 따르면 미국 국가안보국(NSA)이 Anthropic이 개발한 고성능 거대언어모델(LLM)인 Mythos에 접근할 수 있게 되었다. 이는 펜타곤이 Anthropic의 기술을 심각한 공급망 위험으로 분류했던 경고를 정면으로 거스르는 결정이라 더욱 눈길을 끈다.
인공지능 정책의 흐름을 관찰하는 대학생들에게 이번 사례는 기술 도입과 기관의 신중함 사이에서 발생하는 긴장을 보여주는 전형적인 교본이다. 한편으로 NSA는 사이버 보안을 위해 최첨단 생성형 모델을 활용함으로써 얻는 이득이, 외부 AI 제공업체에 의존할 때 발생하는 잠재적 보안 위험보다 크다고 판단한 셈이다. 이는 완벽하게 검증된 국산 해결책을 기다리기보다 최고의 도구를 확보하는 것이 국가 인프라를 지키는 데 훨씬 필수적이라는 실용적인 계산에서 비롯되었다.
하지만 이러한 결정의 영향은 단순히 정보기술(IT) 운영 수준에 머물지 않는다. NSA는 외부 모델을 정보 기관 시스템에 통합함으로써 자체 시스템의 공급망 위험 프로필을 두고 고위험 실험을 감행하고 있다. 조직이 외부의 '블랙박스' 모델을 사용하면 데이터 처리 과정과 실행되는 코드에 대한 통제권을 일부 포기해야 하기 때문이다. 이에 따라 국가 안보 기관은 최첨단 역량 확보와 디지털 경계를 철저히 통제해야 한다는 본연의 임무 사이에서 깊은 딜레마에 빠지게 된다.
이번 사례는 AI 도입이 결코 순탄하거나 일방향적인 과정이 아님을 방증한다. 오히려 AI 도입은 끊임없는 마찰과 토론, 그리고 경쟁하는 우선순위 사이의 균형을 맞추는 과정으로 점철되어 있다. 기관들은 외부 공급망의 이론적 위험과 글로벌 사이버 전쟁에서 뒤처질지 모른다는 현실적이고 즉각적인 위협 사이에서 선택을 강요받는다. 이는 현실 세계에서 AI 거버넌스가 안전 프로토콜 체크리스트처럼 명확하게 나뉘지 않는다는 사실을 일깨워준다.
앞으로 Mythos 사례는 고위험 환경에서 AI를 조달할 때 논의해야 할 핵심 기준점이 될 전망이다. 우리는 현재 생성형 소프트웨어를 검증하는 절차가 과연 충분한지, 아니면 혁신의 속도를 따라가지 못하고 뒤처져 있는지 자문해야 한다. NSA의 이번 결정은 '지켜보자'는 시대가 끝나고, '적응하지 못하면 도태된다'는 시대가 공식적으로 시작되었음을 알리는 신호탄이다.