NSA의 Anthropic 'Mythos' 도입, 보안 논란 점화
- •NSA, 펜타곤의 내부 위험 경고에도 불구하고 Anthropic의 AI 모델 Mythos 도입 결정
- •백악관과 Anthropic 경영진, 모델 안전성 및 협력을 위한 긴급 논의 착수
- •사이버 보안 전문가들, Mythos의 인프라 취약점 노출 가능성에 대해 심각한 우려 제기
국가 안보와 생성형 AI의 접점이 한계점에 도달했다. 미 국가안보국(NSA)이 펜타곤(미 국방부)의 명확한 위험 평가를 무시하고 Anthropic의 AI 모델 'Mythos'를 도입한 것으로 확인됐다. 이는 정부 인프라 내에 강력한 언어 모델을 도입하려는 움직임과 신중하고 더딘 규제 속도 사이의 갈등을 극명하게 보여준다.
인공지능의 궤적을 추적하는 대학생들에게 이번 사건은 '모델 정렬'과 기관 차원의 리스크 관리에 대한 중요한 사례 연구다. 핵심은 AI의 정확성 여부가 아니라, 특히 학습 데이터와 '탈옥' 취약점이 외부 감사자에게 불투명한 상황에서 민감한 데이터를 신뢰할 수 있는지에 있다.
전문가들은 고도로 발달한 LLM이 정보 분석에는 탁월하지만, 인가받지 않은 사용자의 교묘한 프롬프트를 통해 치명적인 사이버 보안 결함을 의도치 않게 노출할 수 있다는 점을 경고한다. 특히 시스템이 근본적으로 내부 구조를 파악하기 어려운 '블랙박스'라는 점이 문제의 본질이다.
정치적 차원 또한 이번 기술적 난제에 복잡성을 더한다. 현재 백악관과 Anthropic 경영진이 진행 중인 고위급 회담은 민간 영역의 혁신과 공공 부문의 안전 프로토콜 간 간극을 메우려는 다급한 시도로 해석된다. 이는 최첨단 지능을 국방에 활용하려는 'AI 군비 경쟁'의 현실을 잘 보여준다.
이번 사안은 단순한 성능 벤치마크를 넘어서는 강력한 평가 체계가 필요함을 시사한다. 정부 기관이 AI를 통합할 때 고려해야 할 가치는 단순한 효율성을 넘어 시스템 안정성과 정보 보안으로 변화하고 있다. 향후 공공-민간 파트너십이 국가 안보 전략에 LLM을 어떻게 반영하거나 제한할지 주목할 필요가 있다.