利用視頻擴散先驗進行新視角外推

Novel View Extrapolation with Video Diffusion Priors

November 21, 2024
作者: Kunhao Liu, Ling Shao, Shijian Lu
cs.AI

摘要

由於輝度場方法的發展,新視角合成領域取得了重大進展。然而,大多數輝度場技術在新視角插值方面表現遠優於新視角外推,即合成的新視角遠超出觀察訓練視角。我們設計了ViewExtrapolator,這是一種新視角合成方法,利用穩定視頻擴散(SVD)的生成先驗進行逼真的新視角外推。通過重新設計SVD去噪過程,ViewExtrapolator改進了輝度場渲染的容易產生瑕疵的視角,極大地提升了合成新視角的清晰度和逼真度。ViewExtrapolator是一種通用的新視角外推器,可與不同類型的3D渲染一起使用,例如從點雲渲染的視角,當僅有單個視角或單眼視頻可用時。此外,ViewExtrapolator無需對SVD進行微調,既節省數據又節省計算資源。大量實驗證明了ViewExtrapolator在新視角外推方面的優越性。項目頁面:https://kunhao-liu.github.io/ViewExtrapolator/。
English
The field of novel view synthesis has made significant strides thanks to the development of radiance field methods. However, most radiance field techniques are far better at novel view interpolation than novel view extrapolation where the synthesis novel views are far beyond the observed training views. We design ViewExtrapolator, a novel view synthesis approach that leverages the generative priors of Stable Video Diffusion (SVD) for realistic novel view extrapolation. By redesigning the SVD denoising process, ViewExtrapolator refines the artifact-prone views rendered by radiance fields, greatly enhancing the clarity and realism of the synthesized novel views. ViewExtrapolator is a generic novel view extrapolator that can work with different types of 3D rendering such as views rendered from point clouds when only a single view or monocular video is available. Additionally, ViewExtrapolator requires no fine-tuning of SVD, making it both data-efficient and computation-efficient. Extensive experiments demonstrate the superiority of ViewExtrapolator in novel view extrapolation. Project page: https://kunhao-liu.github.io/ViewExtrapolator/.

Summary

AI-Generated Summary

論文概述

本文提出了一種名為ViewExtrapolator的新方法,利用穩定視頻擴散的生成先驗進行新視角外推,有效改善合成新視角的真實感和清晰度。ViewExtrapolator具有高效的數據和計算效率,並通過重新設計SVD去噪過程來消除視圖瑕疵。

核心貢獻

  • 提出ViewExtrapolator方法,利用SVD生成先驗進行新視角外推,改善合成視圖真實感。
  • 重新設計SVD去噪過程,提高合成新視角的清晰度。
  • 引入引導退火和重採樣退火技術,幫助SVD進行細化去噪。
  • 提出新指標"外插程度e"來評估新視角外插效果。
  • 在不同3D渲染方法下展現通用性和應用性,有效消除畫面異常。

研究背景

本研究針對從單視圖或單眼視頻推導的點雲的3D渲染,以及由輻射場或點雲渲染產生的容易出現瑕疵的視圖進行新視角外推。現有方法在處理動態視頻或極端視角時存在挑戰,可能導致生成質量下降。

研究缺口

  • 現有方法對於新視角外插的效果有限,缺乏高效的數據和計算效率。
  • 原始SVD模型的限制導致生成視圖的質量上限受限。

技術挑戰

  • 如何有效處理從單視圖或單眼視頻推導的點雲的3D渲染。
  • 如何改善由輻射場或點雲渲染產生的容易出現瑕疵的視圖,提高合成新視角的清晰度和真實感。

先前方法

先前方法在新視角外插方面存在效果有限、計算效率低下等問題,需要對SVD模型進行微調,並未充分利用生成先驗進行外推。

方法論

本文方法基於SVD生成先驗進行新視角外插,通過引入引導退火和重採樣退火技術來幫助SVD進行細化去噪,提高合成新視圖的視覺保真度。

理論基礎

  • 利用SVD生成先驗進行新視角外插。
  • 引入引導退火和重採樣退火技術,幫助SVD進行細化去噪。

技術架構

  • ViewExtrapolator方法結合了SVD生成先驗和引導退火、重採樣退火技術。
  • 重新設計SVD去噪過程,改善合成新視角的清晰度。

實施細節

  • 使用大規模自然視頻訓練的SVD模型來改進渲染的具有瑕疵的視頻。
  • 設計引導退火和重採樣退火,消除瑕疵並提高視覺保真度。

創新點

  • 提出引導退火和重採樣退火技術,幫助SVD進行細化去噪。
  • 引入新指標"外插程度e"來評估新視角外插效果。

實驗驗證

本文通過實驗驗證了ViewExtrapolator方法在新視角外插方面的優越性,並進行了與現有方法的比較。

實驗設置

  • 實驗中使用了T=25,R=3,Rguide=1,Tguide=15或16等超參數。
  • 實驗在NVIDIA RTX A5000 GPU上進行,每次視頻精煉需要3分20秒。

評估指標

  • 使用新指標"外插程度e"來評估新視角外插效果。
  • 構建新的基準LLFF-Extra來評估新視角外插。

實驗結果

  • 通過與現有方法進行定性和定量比較,驗證了ViewExtrapolator在新視角外插方面的優越性。
  • 進行消融研究,證明了引導退火和重採樣退火的重要性。

影響與意義

本研究的結果表明ViewExtrapolator方法在新視角外插方面具有良好的性能,並具有廣泛的應用性和通用性。

重要發現

  • ViewExtrapolator在新視角外插方面的性能優於現有方法。
  • 方法具有高效的數據和計算效率。

限制

  • 方法在處理動態視頻或極端視角時可能會遇到挑戰,導致生成質量下降。
  • 方法的品質上限受到原始SVD模型的限制。

未來方向

  • 可以通過引入更先進的視頻擴散模型來提高整體質量。
  • 進一步研究如何應對動態視頻或極端視角的挑戰。

實際意義

  • 方法可應用於處理動態視頻或極端視角的新視圖合成,具有實際應用價值。

熱門論文

1比特LLM時代:所有大型語言模型都在1.58比特。
The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits

Shuming Ma, Hongyu Wang, Lingxiao Ma, Lei Wang, Wenhui Wang, Shaohan Huang, Li Dong, Ruiping Wang, Jilong Xue, Furu WeiFeb 27, 2024612142

DeepSeek-R1:通過強化學習激勵LLM中的推理能力
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning

DeepSeek-AI, Daya Guo, Dejian Yang, Haowei Zhang, Junxiao Song, Ruoyu Zhang, Runxin Xu, Qihao Zhu, Shirong Ma, Peiyi Wang, Xiao Bi, Xiaokang Zhang, Xingkai Yu, Yu Wu, Z. F. Wu, Zhibin Gou, Zhihong Shao, Zhuoshu Li, Ziyi Gao, Aixin Liu, Bing Xue, Bingxuan Wang, Bochao Wu, Bei Feng, Chengda Lu, Chenggang Zhao, Chengqi Deng, Chenyu Zhang, Chong Ruan, Damai Dai, Deli Chen, Dongjie Ji, Erhang Li, Fangyun Lin, Fucong Dai, Fuli Luo, Guangbo Hao, Guanting Chen, Guowei Li, H. Zhang, Han Bao, Hanwei Xu, Haocheng Wang, Honghui Ding, Huajian Xin, Huazuo Gao, Hui Qu, Hui Li, Jianzhong Guo, Jiashi Li, Jiawei Wang, Jingchang Chen, Jingyang Yuan, Junjie Qiu, Junlong Li, J. L. Cai, Jiaqi Ni, Jian Liang, Jin Chen, Kai Dong, Kai Hu, Kaige Gao, Kang Guan, Kexin Huang, Kuai Yu, Lean Wang, Lecong Zhang, Liang Zhao, Litong Wang, Liyue Zhang, Lei Xu, Leyi Xia, Mingchuan Zhang, Minghua Zhang, Minghui Tang, Meng Li, Miaojun Wang, Mingming Li, Ning Tian, Panpan Huang, Peng Zhang, Qiancheng Wang, Qinyu Chen, Qiushi Du, Ruiqi Ge, Ruisong Zhang, Ruizhe Pan, Runji Wang, R. J. Chen, R. L. Jin, Ruyi Chen, Shanghao Lu, Shangyan Zhou, Shanhuang Chen, Shengfeng Ye, Shiyu Wang, Shuiping Yu, Shunfeng Zhou, Shuting Pan, S. S. Li, Shuang Zhou, Shaoqing Wu, Shengfeng Ye, Tao Yun, Tian Pei, Tianyu Sun, T. Wang, Wangding Zeng, Wanjia Zhao, Wen Liu, Wenfeng Liang, Wenjun Gao, Wenqin Yu, Wentao Zhang, W. L. Xiao, Wei An, Xiaodong Liu, Xiaohan Wang, Xiaokang Chen, Xiaotao Nie, Xin Cheng, Xin Liu, Xin Xie, Xingchao Liu, Xinyu Yang, Xinyuan Li, Xuecheng Su, Xuheng Lin, X. Q. Li, Xiangyue Jin, Xiaojin Shen, Xiaosha Chen, Xiaowen Sun, Xiaoxiang Wang, Xinnan Song, Xinyi Zhou, Xianzu Wang, Xinxia Shan, Y. K. Li, Y. Q. Wang, Y. X. Wei, Yang Zhang, Yanhong Xu, Yao Li, Yao Zhao, Yaofeng Sun, Yaohui Wang, Yi Yu, Yichao Zhang, Yifan Shi, Yiliang Xiong, Ying He, Yishi Piao, Yisong Wang, Yixuan Tan, Yiyang Ma, Yiyuan Liu, Yongqiang Guo, Yuan Ou, Yuduan Wang, Yue Gong, Yuheng Zou, Yujia He, Yunfan Xiong, Yuxiang Luo, Yuxiang You, Yuxuan Liu, Yuyang Zhou, Y. X. Zhu, Yanhong Xu, Yanping Huang, Yaohui Li, Yi Zheng, Yuchen Zhu, Yunxian Ma, Ying Tang, Yukun Zha, Yuting Yan, Z. Z. Ren, Zehui Ren, Zhangli Sha, Zhe Fu, Zhean Xu, Zhenda Xie, Zhengyan Zhang, Zhewen Hao, Zhicheng Ma, Zhigang Yan, Zhiyu Wu, Zihui Gu, Zijia Zhu, Zijun Liu, Zilin Li, Ziwei Xie, Ziyang Song, Zizheng Pan, Zhen Huang, Zhipeng Xu, Zhongyu Zhang, Zhen ZhangJan 22, 20253685

Qwen2.5 技術報告
Qwen2.5 Technical Report

Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan QiuDec 19, 202436311

PDF103November 25, 2024