LongCat-Flash-Chat은 총 560B 파라미터 규모의 Mixture-of-Experts(MoE) 모델로, 입력마다 18.6B에서 31.3B(평균 약 27B)의 파라미터가 동적으로 활성화됩니다. 이 모델은 지름길 연결(shortcut-connected) MoE 설계를 도입하여...
LongCat-Flash-Chat은 총 560B 파라미터 규모의 Mixture-of-Experts(MoE) 모델로, 입력마다 18.6B에서 31.3B(평균 약 27B)의 파라미터가 동적으로 활성화됩니다. 이 모델은 지름길 연결(shortcut-connected) MoE 설계를 도입하여...