Wan 2.7은 Alibaba Tongyi Lab에서 공개한 최신 오픈 소스 비디오 모델입니다. 이 모델은 추론 시 14B의 활성 파라미터를 사용하는 27B 파라미터 규모의 Mixture-of-Experts 확산 트랜스포머(Diffusion Transformer) 기반으로, 전체 시퀀스의 공간적 및 시간적 관계를 동시에 처리하는 DiT 아키텍처를 채택하여 뛰어난 캐릭터 일관성을 유지합니다. Wan 2.7은 텍스트-비디오, 이미지-비디오, 음성 복제를 포함한 레퍼런스-비디오 생성 및 지시어 기반 비디오 편집을 지원하며, 다중 샷 구성을 위한 'Thinking Mode'를 제공합니다. 레퍼런스-비디오 기능은 최대 5개의 이미지나 비디오를 조합하여 정밀한 캐스팅 제어가 가능하며, 5~15초 길이의 720p-1080p 영상을 생성합니다. 이 모델은 감독, 스토리텔러, 그리고 장면 간 캐릭터 연속성이 중요한 작업 환경에 최적화되어 있습니다.
Wan 2.7은 Alibaba Tongyi Lab에서 공개한 최신 오픈 소스 비디오 모델입니다. 이 모델은 추론 시 14B의 활성 파라미터를 사용하는 27B 파라미터 규모의 Mixture-of-Experts 확산 트랜스포머(Diffusion Transformer) 기반으로, 전체 시퀀스의 공간적 및 시간적 관계를 동시에 처리하는 DiT 아키텍처를 채택하여 뛰어난 캐릭터 일관성을 유지합니다. Wan 2.7은 텍스트-비디오, 이미지-비디오, 음성 복제를 포함한 레퍼런스-비디오 생성 및 지시어 기반 비디오 편집을 지원하며, 다중 샷 구성을 위한 'Thinking Mode'를 제공합니다. 레퍼런스-비디오 기능은 최대 5개의 이미지나 비디오를 조합하여 정밀한 캐스팅 제어가 가능하며, 5~15초 길이의 720p-1080p 영상을 생성합니다. 이 모델은 감독, 스토리텔러, 그리고 장면 간 캐릭터 연속성이 중요한 작업 환경에 최적화되어 있습니다.