AI를 정서적 대리인으로 삼는 심리적 현상
- •LLM을 정서적 위안처나 위기 상담자로 활용하는 사용자가 급증하고 있다.
- •AI 매개 소통은 진정한 인간적 취약성을 가로막는 '거짓 자아'를 형성할 위험이 있다.
- •챗봇을 전문적인 정신 건강 케어를 대체하는 영구적 수단으로 사용해서는 안 된다는 전문가들의 경고가 나온다.
인공지능이 우리 내면의 영역으로 깊숙이 들어오면서 인간관계의 지형이 근본적이고 다소 불안한 변화를 겪고 있다. 최근 임상 현장에서는 사람들이 정보 습득이나 유용한 도구로서가 아니라, 복잡한 감정을 다루는 정서적 동반자로 ChatGPT와 같은 기술을 찾는 경향이 관찰된다. 이러한 행동은 친밀감의 본질과 인간관계 속에서 삶의 어려움을 헤쳐 나가야 하는 발달적 필요성에 대해 중요한 질문을 던진다.
이러한 변화의 핵심에는 임상의들이 사회적 기대를 충족하기 위해 사용하는 가면을 지칭하는 '거짓 자아'라는 개념이 자리 잡고 있다. 사람들은 이제 작별 인사나 사과, 개인적인 메모 작성 등 가장 취약한 감정이 담긴 소통을 알고리즘에 위탁하기 시작했다. AI가 생성한 메시지는 종종 매우 효과적이고 유려하지만, 사용자가 자신의 진정한 감정 상태로부터 멀어지게 할 위험이 있다. AI를 통해 이러한 과업을 수행함으로써 사람들은 진정한 자기 발견이 일어나는 필수적인 고뇌의 과정을 회피하게 된다.
특히 이러한 현상은 또래 갈등부터 학업 스트레스에 이르기까지 다양한 문제를 관리하기 위해 AI를 사용하는 학생들 사이에서 두드러진다. 어떤 경우에는 챗봇이 커플 간의 분쟁을 중재하거나 위기 상황에서 위안을 제공하는 '보조 상담사' 역할을 수행하기도 한다. 이러한 도구는 즉각적인 위로와 구조화된 답변을 제공할 수 있지만, 자칫하면 현실 세계의 진정한 관계를 차단하는 완충재가 될 수 있다. 사용자가 이러한 디지털 도구에만 전적으로 의존한다면 부모나 친구, 상담사와 취약성을 공유하며 배우는 핵심적인 발달 과정을 놓칠 위험이 크다.
우리는 이러한 기술이 인간 상호작용의 가교 역할을 하는지, 아니면 장벽이 되는지 비판적으로 평가해야 한다. AI가 복잡하고 예측 불가능한 실제 관계를 대체하는 화려하지만 공허한 모조품이 되어 영구적인 대리인으로 자리 잡을 위험이 존재한다. 어려운 감정을 표현하는 연습을 위해 AI를 활용하는 것과, 인간에게 직접 소통해야 할 책임을 회피하기 위해 AI를 사용하는 것 사이에는 분명한 차이가 있다.
향후 교육자와 상담사의 목표는 이러한 기술을 무조건 배척하는 것이 아니라 목적에 맞게 통합하는 방향이어야 한다. AI를 도움을 구하는 문턱을 낮추거나 현실 세계와 소통하기 전 생각을 정리하는 전환적 도구로 활용하는 모델을 권장해야 한다. 궁극적으로 기술은 우리를 이전보다 더 고립시키는 목적지가 아니라, 더 깊은 유대감과 회복탄력성, 그리고 성장을 향한 디딤돌이 되어야 한다.