인공지능의 성 편향성, 디지털 공간의 안전을 위협한다
- •AI 이미지 생성 모델은 고정관념을 답습하며 포용적이고 안전한 환경 구현에 실패하고 있다.
- •주요 플랫폼은 여성 건강 관련 콘텐츠를 알고리즘으로 검열하여 가시성을 의도적으로 낮추고 있다.
- •연구자들은 안전성 정기 감사와 인간 중심의 중재, 그리고 개발 팀의 다양성 확보를 강력히 요구하고 있다.
인터넷은 과거 소외된 목소리를 대변하는 민주화의 도구로 기대받았으나, 현재의 디지털 환경은 점차 파편화되고 있다. 최근 조사에 따르면 AI는 단순한 사회적 편견의 거울을 넘어, 이를 실질적으로 증폭시키는 기제로 작동하고 있다. 실제로 미드저니(Midjourney)와 같은 생성형 플랫폼을 테스트한 결과, AI는 여성에게 안전한 공간을 묘사하라는 지시에 늘 고정관념에 박힌 결과물만을 내놓았다.
특히 AI는 남녀가 섞인 디지털 환경에서 여성이 안전하게 교류하는 미래를 개념화하는 데 실패했다. 심지어 윤리적 알고리즘 중심의 미래형 기술 허브를 그려보라는 요청조차 시스템은 거부했는데, 이는 모델이 성별과 권위를 인식하는 방식에 심각한 결함이 있음을 보여준다.
이러한 문제는 단순히 이미지 생성에 국한되지 않고 우리 일상의 온라인 상호작용을 지배하는 알고리즘 전반에 걸쳐 구조적으로 나타난다. 주요 소셜 및 전문 플랫폼은 이른바 '알고리즘에 의한 비가시성' 문제로 비판을 받고 있다. 여성 건강, 성적 권리, 성평등 관련 콘텐츠가 사실상 그림자 금지(shadow-banned)되거나 억제되는 현상이 빈번하게 발생하고 있다.
이러한 시스템은 남성 중심적인 언어나 전문적인 콘텐츠를 선호하도록 설계된 것으로 보이며, 그 결과 디지털 공간에서의 가시성이 가부장적 규범에 의해 결정되는 환경이 조성되었다. 플랫폼 운영자들은 사용자 안전보다 참여 지표를 높이는 혼란을 선택했으며, 이는 기술을 매개로 한 성폭력을 방치하는 결과로 이어지고 있다.
독립적인 사실 확인이나 시스템 감사 없이는 플랫폼이 차별을 양산하는 통제 불능의 엔진으로 전락할 위험이 크다. 이 위기를 해결하기 위해서는 단순히 안전 필터를 수정하는 수준을 넘어, 디지털 인프라를 구축하는 주체를 근본적으로 재고해야 한다. 정책 입안자와 업계 리더들은 기술 팀의 다양성을 의무화하여 안전이 부차적인 요소가 아닌 설계의 기초가 되도록 보장해야 한다. 지금은 혼란스러운 참여형 모델에서 벗어나 윤리적이고 인간 중심적인 시스템으로 전환해야 하는 중요한 변곡점이다.