AI는 왜 '허구의 기계'로 작동하는가?
- •거대언어모델(LLM)은 사실적 진실보다 서사적 일관성을 우선시하여 생성된 답변이 항상 논리적으로 보이도록 한다.
- •인간 피드백 강화학습(RLHF)은 AI가 가진 근본적인 '허구 기계'로서의 본성을 가리는 역할을 수행한다.
- •상징적 및 인과적 사고의 한계로 인해 AI가 독자적인 과학적 돌파구를 마련하기는 여전히 어려울 수 있다.
거대언어모델(LLM)은 사실적 현실을 엄격히 따르기보다는 '말이 되는' 서사를 생성하도록 근본적으로 설계되었다. 실제로 우리는 이러한 시스템과 유연하게 대화하는 경험을 자주 하지만, AI의 핵심 기능은 구성성(Compositionality)과 같은 언어 구조를 바탕으로 시퀀스의 다음 논리적 단계를 예측하는 것에 불과하다. 이는 복잡한 표현의 의미가 개별 요소들의 결합과 배치에 의해 결정된다는 원리를 따른다. 그 결과 AI는 훈련 데이터에서 사실을 빌려오면서도 빈틈을 지어낸 세부 사항으로 채워 넣으며, 마치 그럴듯한 이야기를 출력하는 '허구의 기계'처럼 작동하게 된다.
진실보다는 서사에 집중함에도 불구하고 AI가 정확한 정보를 제공하는 경우도 많다. 이러한 현상은 주로 인간 피드백 강화학습(RLHF) 덕분인데, 이는 인간 검수자가 사실 관계와 사회적 규범에 부합하도록 모델을 미세 조정하는 과정이다. 다만 이러한 튜닝을 거치더라도 기존 언어를 단순히 모방하는 것과 완전히 새로운 개념적 틀을 발견하는 것 사이에는 여전히 큰 간극이 존재한다. 실제로 AI는 기존의 줄거리를 재구성해 소설을 쓰는 일에는 능숙하지만, 과학적 발견에 필수적인 고차원적 추론 능력은 아직 부족한 실정이다.
이론 물리학과 같은 분야에서 AI가 직면한 과제는 새로운 상징과 인과 구조를 창조하는 일이다. 인간은 중력이나 광자와 같이 특정 현상을 설명하기 위해 발명된 개념을 통해 세상을 이해한다. 만약 AI가 인간의 상징적 추론과 근본적으로 다른 방식으로 '사고'한다면, 우리는 정체 모를 '외계' 지능과 공존하게 될지도 모른다. 결국 AI가 새로운 이론을 발견하더라도 인간이 이해할 수 있는 언어로 그 추론 과정을 설명하지 못하는 상황에 직면할 가능성이 크다.