AI와의 상호작용이 인간의 인지적 끈기를 약화할 수 있다
- •새로운 연구에 따르면 10분간의 AI 사용만으로도 독립적인 문제 해결을 위한 끈기가 감소한다.
- •AI 보조에 의존한 참가자들은 이후 진행된 독립적인 인지 과제에서 더 낮은 성과를 보였다.
- •AI 도구를 제거하면 수행 능력이 기존의 기준치 이하로 떨어지는 현상이 빈번하게 나타난다.
우리는 어려운 난관에 봉착하면 본능적으로 가장 빠른 해결책을 찾으려 한다. 생성형 AI 시대에 그 길은 대개 몇 초 만에 답을 제시하는 챗봇으로 연결된다. 다만 최근 연구는 이러한 '마찰 없는' 사고가 진정한 숙련도를 쌓기 위해 필요한 고통스러운 과정을 회피하도록 우리의 뇌를 길들이고 있을지도 모른다는 점을 시사한다.
최근 연구는 단 10분간의 AI 보조만으로도 사람의 끈기가 측정 가능할 정도로 저하된다는 우려스러운 결과를 보여준다. 이는 향후 스스로 문제를 해결해야 할 상황에서 더 쉽게 포기하게 만드는 요인이 된다. 수년간 전문성 확보의 표준은 '1만 시간의 법칙'으로 통했다. 이 법칙은 숙련도가 타고난 재능의 결과가 아니라, 어려움과 씨름하며 겪는 지속적이고 불편한 참여의 산물임을 강조한다.
Large Language Model은 이러한 저항을 제거함으로써 이른바 '빌린 확신'을 제공한다. 이는 마치 완벽하게 이해한 것 같은 느낌을 주지만, 실제로는 시행착오를 통해 쌓은 인지적 토대가 결여되어 있다. 이는 표준적인 인지 발달의 역전 현상을 초래한다. 인간의 지능은 노력과 투쟁, 그리고 결국 얻게 되는 유창함이라는 순환 과정을 통해 성장한다.
반면 AI 시스템은 이해보다 유창함을 먼저 생성한다. 사용자가 이러한 도구에 의존하면 'AI 반등' 효과의 희생양이 되기 쉬운데, 도구가 사라진 뒤 독립적인 과제를 수행할 때 성과가 도움을 받기 전의 수준보다 더 떨어지는 현상이 발생한다. 이는 단순히 이전 상태로 돌아가는 것이 아니라, 기술적 역량이 퇴보하는 결과를 낳는다.
AI가 본질적으로 해롭다는 의미는 아니다. 다만 속도와 완료를 최적화하는 기본 사용 방식은 인간 학습의 구조와 근본적으로 상충한다. 답이 항상 즉시 제공되면 모호함을 헤쳐 나가는 데 필요한 인지적 '근육'은 퇴화하기 시작한다. 우리는 풀리지 않는 문제와 씨름하는 인내심을 잃어가고 있으며, 진정한 통찰은 바로 그 지점에서 탄생한다.
대학생들은 학습의 흐름을 재설정할 필요가 있다. AI를 단순히 문제 해결 도구로만 사용하면 학습을 생성하는 인지적 마찰을 건너뛰게 된다. 대신 AI를 자신의 사고를 더 깊게 확장하는 스파링 파트너로 활용해보라. 결국 기계가 인간의 비판적 사고 능력을 대신하는 것이 아니라, 이를 지원하도록 만드는 것이 지적 주도권을 지키는 핵심이다.