NSA, 내부 금지된 Anthropic의 Mythos AI 사용 논란
- •미 국가안보국(NSA) 인력이 내부 보안 블랙리스트에 오른 Anthropic의 Mythos AI 플랫폼을 사용 중이라는 보도가 제기됨.
- •해당 사례는 고도의 보안이 요구되는 정부 기관에서 AI 사용 지침을 준수하는 것이 얼마나 어려운지 보여줌.
- •정부 기관의 AI 생산성 수요가 보안 규제 승인 속도를 추월하며 발생하는 실질적인 도전 과제를 시사함.
최근 미 국가안보국(NSA)이 보안 정책을 위반하고 Anthropic의 Mythos 도구를 활용하고 있다는 소식이 정보 당국에 파장을 일으키고 있다. Axios의 보도에 따르면, 해당 AI 플랫폼은 정보기관 내 데이터 보호를 위해 수립된 보안 블랙리스트에 포함되어 있었음에도 불구하고 현장에서 지속적으로 사용되었다. 이는 단순한 행정적 실수를 넘어, 보안이 핵심인 조직들이 급격한 생성형 AI 도입 과정에서 직면한 깊은 고민을 드러낸다.
본질적으로 이번 상황은 작전 수행의 필요성과 위험 관리 사이의 갈등을 보여준다. 정보 요원들과 분석가들은 데이터 분석과 작업 효율을 극대화해야 한다는 압박 속에서, 최신 AI 도구가 업무 흐름을 획기적으로 개선한다는 점을 확인했다. 하지만 이들 도구는 대개 클라우드 기반 아키텍처에서 구동되기에, 기밀 정보를 다루는 기관이 요구하는 엄격한 보안 기준을 충족하지 못하는 경우가 많다.
블랙리스트와 같은 제도는 데이터 유출을 방지하고 내부 정보를 외부 모델 학습에 활용하지 못하게 하려는 구조적 안전장치다. 기관이 이러한 프로토콜을 우회하는 것은 현재의 규제 체계가 과연 기술 발전 속도를 따라잡고 있는지에 대한 의문을 제기한다. 종종 내부 검증 절차가 기술 혁신 속도를 따라가지 못하면서, 허가받지 않은 도구를 업무에 사용하는 '섀도 IT' 현상이 발생하게 된다.
이번 사례는 AI 생산성에 대한 수요가 정부의 규제 승인 속도를 앞지르고 있음을 시명하게 보여준다. 국가 안보를 다루는 기관에서 AI의 모델 환각이나 데이터 입력 오류는 단순한 비즈니스 손실을 넘어 지정학적 위험으로 이어질 수 있다. 따라서 이번 사건은 연방 기관들이 기술의 민첩성과 보안 프로토콜이라는 두 마리 토끼를 잡기 위해 현대적인 거버넌스 체계를 재정비해야 한다는 경각심을 일깨운다.
결국 문제는 특정 도구 자체보다 새로운 AI 기술의 능력과 이를 통제하고 검증할 기관의 역량 사이에 벌어진 격차에 있다. 민감한 정보를 다루는 조직조차 자체 규정을 어기면서까지 새로운 플랫폼을 찾는다는 것은, 현재의 경직된 정책이 오히려 성공적인 임무 수행을 방해하는 요소가 되고 있음을 의미한다. 이는 공공 부문 내 AI 거버넌스 방식을 더욱 역동적이고 현대적으로 바꿔야 할 중요한 전환점이 도래했음을 알리는 신호다.