영화 Gen: 미디어 기반 모델 캐스트
Movie Gen: A Cast of Media Foundation Models
October 17, 2024
저자: Adam Polyak, Amit Zohar, Andrew Brown, Andros Tjandra, Animesh Sinha, Ann Lee, Apoorv Vyas, Bowen Shi, Chih-Yao Ma, Ching-Yao Chuang, David Yan, Dhruv Choudhary, Dingkang Wang, Geet Sethi, Guan Pang, Haoyu Ma, Ishan Misra, Ji Hou, Jialiang Wang, Kiran Jagadeesh, Kunpeng Li, Luxin Zhang, Mannat Singh, Mary Williamson, Matt Le, Matthew Yu, Mitesh Kumar Singh, Peizhao Zhang, Peter Vajda, Quentin Duval, Rohit Girdhar, Roshan Sumbaly, Sai Saketh Rambhatla, Sam Tsai, Samaneh Azadi, Samyak Datta, Sanyuan Chen, Sean Bell, Sharadh Ramaswamy, Shelly Sheynin, Siddharth Bhattacharya, Simran Motwani, Tao Xu, Tianhe Li, Tingbo Hou, Wei-Ning Hsu, Xi Yin, Xiaoliang Dai, Yaniv Taigman, Yaqiao Luo, Yen-Cheng Liu, Yi-Chiao Wu, Yue Zhao, Yuval Kirstain, Zecheng He, Zijian He, Albert Pumarola, Ali Thabet, Artsiom Sanakoyeu, Arun Mallya, Baishan Guo, Boris Araya, Breena Kerr, Carleigh Wood, Ce Liu, Cen Peng, Dimitry Vengertsev, Edgar Schonfeld, Elliot Blanchard, Felix Juefei-Xu, Fraylie Nord, Jeff Liang, John Hoffman, Jonas Kohler, Kaolin Fire, Karthik Sivakumar, Lawrence Chen, Licheng Yu, Luya Gao, Markos Georgopoulos, Rashel Moritz, Sara K. Sampson, Shikai Li, Simone Parmeggiani, Steve Fine, Tara Fowler, Vladan Petrovic, Yuming Du
cs.AI
초록
저희는 고화질 1080p HD 비디오를 다양한 종횡비와 동기화된 오디오로 생성하는 Movie Gen이라는 기초 모델 캐스트를 제시합니다. 또한 정확한 지시사항 기반 비디오 편집 및 사용자 이미지를 기반으로 한 맞춤형 비디오 생성과 같은 추가 기능을 보여줍니다. 저희 모델은 다중 작업에서 새로운 최첨단을 세우고 있습니다: 텍스트에서 비디오로의 합성, 비디오 개인화, 비디오 편집, 비디오에서 오디오 생성, 그리고 텍스트에서 오디오 생성. 저희 가장 큰 비디오 생성 모델은 30B 파라미터 트랜스포머로, 최대 73K 비디오 토큰의 컨텍스트 길이로 훈련되어, 초당 16프레임의 16초 비디오를 생성합니다. 저희는 사전 훈련 데이터, 모델 크기, 그리고 훈련 컴퓨트의 스케일링 이점을 누릴 수 있도록 아키텍처, 잠재 공간, 훈련 목표 및 레시피, 데이터 선별, 평가 프로토콜, 병렬화 기술, 그리고 추론 최적화에 대한 다양한 기술적 혁신과 단순화를 보여줍니다. 이 논문이 미디어 생성 모델의 진보와 혁신을 가속화하는 데 연구 커뮤니티에 도움이 되기를 희망합니다. 본 논문의 모든 비디오는 https://go.fb.me/MovieGenResearchVideos에서 확인할 수 있습니다.
English
We present Movie Gen, a cast of foundation models that generates
high-quality, 1080p HD videos with different aspect ratios and synchronized
audio. We also show additional capabilities such as precise instruction-based
video editing and generation of personalized videos based on a user's image.
Our models set a new state-of-the-art on multiple tasks: text-to-video
synthesis, video personalization, video editing, video-to-audio generation, and
text-to-audio generation. Our largest video generation model is a 30B parameter
transformer trained with a maximum context length of 73K video tokens,
corresponding to a generated video of 16 seconds at 16 frames-per-second. We
show multiple technical innovations and simplifications on the architecture,
latent spaces, training objectives and recipes, data curation, evaluation
protocols, parallelization techniques, and inference optimizations that allow
us to reap the benefits of scaling pre-training data, model size, and training
compute for training large scale media generation models. We hope this paper
helps the research community to accelerate progress and innovation in media
generation models. All videos from this paper are available at
https://go.fb.me/MovieGenResearchVideos.Summary
AI-Generated Summary