Qwen으로 생성한 AI 이미지 /알리바바 클라우드

알리바바 클라우드는 비디오 파운데이션 모델 ‘통이 완샹(Tongyi Wanxiang)’의 최신 버전인 Wan2.1 시리즈 중 140억(14B) 및 13억(1.3B) 매개변수 모델 4종을 오픈소스로 공개한다고 27일 밝혔다.

이를 통해 AI 기술의 개방성과 확장성을 더욱 강화해 나간다는 계획이다.

이번에 공개된 모델은 T2V-14B, T2V-1.3B, I2V-14B-720P, I2V-14B-480P 등 4종이다.

텍스트 및 이미지 입력을 기반으로 고품질 이미지와 영상을 생성하도록 설계됐다. 

해당 모델들은 알리바바 클라우드의 AI 모델 커뮤니티인 ‘모델스코프(ModelScope)’와 협업형 AI 플랫폼 ‘허깅페이스(Hugging Face)’에서 다운로드 가능하다.

알리바바 관계자는 “영상 생성 AI 모델을 훈련하려면 막대한 컴퓨팅 자원과 대량의 고품질 학습 데이터가 필수적”이라며 “이러한 모델을 오픈소스로 개방하면 AI 활용의 장벽을 낮출 수 있으며, 기업들은 보다 효율적이고 경제적인 방식으로 자사 비즈니스에 최적화된 고품질 영상 콘텐츠를 제작할 수 있다”고 말했다.

홈으로 이동 상단으로 이동