생성형 AI 시스템에 스며든 성별 편향과 배제
- •생성형 AI 도구들은 종종 고정관념을 강화하고 특정 대상을 배제하는 여성 묘사를 지속적으로 재생산한다.
- •주요 디지털 플랫폼들이 여성 건강 관련 정보를 알고리즘으로 차단하는 '섀도밴' 논란에 휩싸였다.
- •전문가들은 AI 개발 팀 내 다양성 확보와 시스템 차원의 설계 개혁을 강력히 요구하고 있다.
인터넷은 초기에 사회적 문턱을 낮추고 소외된 목소리가 자유롭게 공존하는 민주적인 공간으로 기대를 모았다. 그러나 최근 분석에 따르면, 우리 온라인 삶을 지탱하는 디지털 인프라는 여성, 성소수자 및 소외 계층에게 점차 배타적으로 변하고 있다. 이러한 변화는 우연이 아니라, 안전과 존엄성보다 참여 지향적인 혼란을 우선시하는 시스템의 부작용이다. 우리가 AI의 미래를 논할 때, 이 도구들이 단순한 관찰자가 아니라 수 세기 동안 이어진 권력 구조를 강화하는 적극적인 참여자라는 불편한 진실을 직면해야 한다.
생성형 AI의 이미지 생성 기능을 실험해보면 학습 데이터에 내재된 편향이 극명하게 드러난다. AI에게 안전한 여성의 디지털 환경을 그려달라고 요청했을 때, 모델은 협력적인 업무 공간 대신 항의 시위나 고립된 여성 전용 공간 같은 고정관념을 반복적으로 내놓았다. 특히 여성들이 기술 리더를 맡는 미래 지향적인 기술 허브를 묘사하라는 요청은 커뮤니티 가이드라인 위반으로 거부되기도 했다. 이는 AI가 창의적인 결과물 속에서 여성의 기술적 리더십을 원천적으로 배제하도록 설계되었음을 시사한다.
이러한 현상은 이미지 생성을 넘어 여성의 정보 접근권을 체계적으로 억압하는 단계에 이르렀다. 여러 소셜 미디어와 전문 네트워크 플랫폼이 여성의 건강, 성적·생식적 권리, 구조적 성차별에 관한 콘텐츠를 이른바 섀도밴(Shadowbanning)하며 도달 범위를 의도적으로 제한하고 있다는 보고가 잇따르고 있다. 이는 단순히 모더레이션의 오류를 넘어 공중보건의 영역까지 침해하는 심각한 문제다. 여성의 필수 정보 접근을 차단함으로써 그들을 디지털 광장에서 투명 인간으로 만들고 있는 셈이다.
이 위기를 해결하려면 AI 아키텍처와 플랫폼 거버넌스에 대한 근본적인 접근 방식 변화가 필요하다. 단순히 유해 콘텐츠를 사후 제거하는 방식의 모더레이션만으로는 시스템 내부의 구조적 결함을 바로잡을 수 없다. 우리는 설계 초기부터 안전성, 포용성, 존엄성을 통합하는 근본적인 원칙을 요구해야 한다. 이는 형식적인 윤리 위원회를 넘어, 프로그래밍 단계부터 다양한 소수 집단이 의사 결정 과정에 실질적으로 참여하는 문화를 조성하는 것을 의미한다.
나아가 정부의 역할 또한 그 어느 때보다 중요하다. 기업의 자율 규제에만 의존하는 방식은 이미 실패를 거듭해왔으며, 기업의 비즈니스 모델이 사용자 보호보다 참여 지표를 우선시하는 경향이 뚜렷하기 때문이다. 따라서 기술 기반 성폭력을 법제화하고, AI 배포 시 투명한 안전성 감사를 의무화하는 등 정부의 강력한 입법 노력이 필요하다. 디지털 평등은 기존 플랫폼 위에 나중에 덧씌우는 것이 아니라, 애초에 코드 단계부터 명시되어야 한다. 이제 디지털 안전은 부가 기능이 아닌, 기능적이고 공정한 사회를 위한 핵심 요구 사항으로 자리 잡아야 한다.