경제협력개발기구(OECD), 책임 있는 AI 가이드라인 발표
- •OECD가 책임 있는 AI를 위한 최초의 국제적 실사 프레임워크를 발표했다.
- •AI 개발 가치 사슬 전반에 걸친 잠재적 위험 관리를 지침으로 삼았다.
- •선제적인 위험 관리는 기업의 핵심적인 경쟁 우위가 될 전망이다.
인공지능이 업무 환경부터 보건 의료에 이르기까지 우리 일상 전반에 깊숙이 스며들면서 기업을 향한 책임 있는 행동 요구가 그 어느 때보다 높아졌다. 이에 따라 OECD는 복잡한 AI 환경을 정리하고자 최초의 '책임 있는 AI를 위한 실사 가이드라인(Due Diligence Guidance for Responsible AI)'을 발표했다. 이는 단순히 지켜야 할 엄격한 규칙이라기보다, 복잡한 위험 요소를 헤쳐 나가기 위한 실질적인 나침반에 가깝다.
전문가가 아닌 사람들에게 '실사(due diligence)'란 개인정보 유출, 알고리즘 편향성, 환경적 악영향 등 각종 위험 요인을 사전에 파악하고 예방하며 완화하는 체계적인 과정을 의미한다. OECD의 새로운 프레임워크는 기업들이 가치 사슬 전반을 아우르는 접근 방식을 취할 것을 권장한다. 이는 단순히 소프트웨어를 개발하는 엔지니어뿐만 아니라 데이터 라벨러, 막대한 에너지를 소비하는 데이터 센터, 그리고 최종 사용자까지 모두 고려해야 한다는 의미를 담고 있다.
그렇다면 이것이 미래 커리어에 왜 중요한가? 디지털 경제에서 '신뢰'는 곧 자본이 되어가고 있기 때문이다. 해당 가이드라인은 책임 있는 AI가 혁신을 가로막는 장애물이 아니라 오히려 기업의 경쟁력을 높이는 요소라고 강조한다. 위험을 선제적으로 관리하는 기업은 향후 발생할 법적 분쟁이나 평판을 훼손할 스캔들을 피할 수 있기 때문이다. 글로벌 표준이 정립되는 현시점에서 이를 선제적으로 따르는 기업들이 향후 국제 시장으로 기술을 확장하는 데 유리한 위치를 선점할 것이다. 이제는 '빠르게 움직여 무언가를 파괴하는(move fast and break things)' 시대에서 '신뢰를 쌓으며 빠르게 나아가는' 시대로 변화하고 있다.