DI-PCG:基于扩散的高效逆向程序内容生成用于高质量3D资产创作
DI-PCG: Diffusion-based Efficient Inverse Procedural Content Generation for High-quality 3D Asset Creation
December 19, 2024
作者: Wang Zhao, Yan-Pei Cao, Jiale Xu, Yuejiang Dong, Ying Shan
cs.AI
摘要
程序内容生成(PCG)在创建高质量的3D内容方面非常强大,但控制其以生成所需形状却很困难,通常需要进行大量参数调整。逆向程序内容生成旨在在输入条件下自动找到最佳参数。然而,现有基于采样和神经网络的方法仍然存在大量的样本迭代或受限的可控性。在这项工作中,我们提出了DI-PCG,一种从一般图像条件进行逆向PCG的新颖高效方法。其核心是一个轻量级扩散变换器模型,其中PCG参数直接被视为去噪目标,观察到的图像作为控制参数生成的条件。DI-PCG高效且有效。仅需7.6M个网络参数和30个GPU小时进行训练,它展现出在准确恢复参数和良好泛化到野外图像方面的卓越性能。定量和定性实验结果验证了DI-PCG在逆向PCG和图像到3D生成任务中的有效性。DI-PCG为高效的逆向PCG提供了一种有前途的方法,并代表了朝着模拟如何使用参数模型构建3D资产的3D生成路径的宝贵探索步骤。
English
Procedural Content Generation (PCG) is powerful in creating high-quality 3D
contents, yet controlling it to produce desired shapes is difficult and often
requires extensive parameter tuning. Inverse Procedural Content Generation aims
to automatically find the best parameters under the input condition. However,
existing sampling-based and neural network-based methods still suffer from
numerous sample iterations or limited controllability. In this work, we present
DI-PCG, a novel and efficient method for Inverse PCG from general image
conditions. At its core is a lightweight diffusion transformer model, where PCG
parameters are directly treated as the denoising target and the observed images
as conditions to control parameter generation. DI-PCG is efficient and
effective. With only 7.6M network parameters and 30 GPU hours to train, it
demonstrates superior performance in recovering parameters accurately, and
generalizing well to in-the-wild images. Quantitative and qualitative
experiment results validate the effectiveness of DI-PCG in inverse PCG and
image-to-3D generation tasks. DI-PCG offers a promising approach for efficient
inverse PCG and represents a valuable exploration step towards a 3D generation
path that models how to construct a 3D asset using parametric models.Summary
AI-Generated Summary
论文概述
本文介绍了基于扩散的高质量3D资产创建的逆向程序内容生成(DI-PCG)方法。DI-PCG通过轻量级扩散变换器模型处理PCG参数,训练效率高,泛化能力强。实验证实了DI-PCG在逆向PCG和图像到3D生成任务中的有效性,为高质量3D生成开辟了新途径。
核心贡献
- DI-PCG是高效的逆向PCG方法,采用扩散模型处理PCG参数。
- 通过学习分布先验,DI-PCG具有加速和泛化能力。
- 利用程序生成器参数作为3D表示,实现图像到3D资产生成。
研究背景
本研究解决了现有基于采样和神经网络的方法在逆向PCG中的局限性,提出了DI-PCG方法,通过扩散模型处理PCG参数,实现高质量3D生成。
研究缺口
- 现有方法样本迭代多、可控性有限。
- 缺乏高效处理PCG参数的方法。
技术挑战
- 实现高质量3D生成。
- 提高逆向PCG的效率和准确性。
先前方法
- 基于采样和神经网络的逆向PCG方法。
方法论
本文方法基于Diffusion Transformer(DiT)模型,处理PCG参数,实现高效的逆向PCG。DI-PCG通过程序生成器参数作为3D表示,设计扩散模型来建模其分布。
理论基础
- 正向过程将输入数据转化为高斯分布N(0,I)。
- 反向过程通过马尔可夫链定义,使用噪声预测网络参数化。
技术架构
- DI-PCG采用Diffusion Transformer(DiT)模型。
- 通过程序生成器参数进行3D表示。
实现细节
- 选择六个程序生成器进行训练,每个生成器生成20000个数据对。
- 训练每个扩散模型约30小时。
创新点
- DI-PCG通过扩散模型处理PCG参数,实现高质量3D生成。
- 利用程序生成器参数作为3D表示,提高生成效率。
实验验证
本文通过定量和定性实验验证DI-PCG的有效性,结果显示其在形状重建和生成方面具有竞争力。
设置
- 使用六个程序生成器进行训练。
- 实验数据包括多视角渲染和数据增强。
评估指标
- 定量评估结果显示DI-PCG在3D生成任务中表现优异。
结果
- DI-PCG在形状重建和生成方面具有竞争力。
- 在不同类别的生成任务中表现出色。
对比分析
- 与现有方法进行了对比实验。
- 结果显示DI-PCG在3D生成任务中具有明显优势。
影响与启示
DI-PCG解决了逆向PCG问题,具有高效性和准确性,为3D内容生成领域带来新的可能性。
主要发现
- DI-PCG能处理复杂形状变化和细节,生成高质量3D模型。
- 在不同类别任务中表现优异。
局限性
- 生成范围受限于现有生成器。
- 仅支持图像条件。
未来方向
- 扩展到场景生成等更多领域。
- 结合AI技术如大型语言模型进行更多探索。
实际意义
- DI-PCG为高质量3D生成提供了新思路。
- 可应用于多领域的内容生成任务。
1比特LLM时代:所有大型语言模型均为1.58比特。The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits
1比特LLM时代:所有大型语言模型均为1.58比特。
The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits
Shuming Ma, Hongyu Wang, Lingxiao Ma, Lei Wang, Wenhui Wang, Shaohan Huang, Li Dong, Ruiping Wang, Jilong Xue, Furu Wei•Feb 27, 2024•612142
DeepSeek-R1:通过强化学习激励LLMs中的推理能力DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via
Reinforcement Learning
DeepSeek-R1:通过强化学习激励LLMs中的推理能力
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via
Reinforcement Learning
DeepSeek-AI, Daya Guo, Dejian Yang, Haowei Zhang, Junxiao Song, Ruoyu Zhang, Runxin Xu, Qihao Zhu, Shirong Ma, Peiyi Wang, Xiao Bi, Xiaokang Zhang, Xingkai Yu, Yu Wu, Z. F. Wu, Zhibin Gou, Zhihong Shao, Zhuoshu Li, Ziyi Gao, Aixin Liu, Bing Xue, Bingxuan Wang, Bochao Wu, Bei Feng, Chengda Lu, Chenggang Zhao, Chengqi Deng, Chenyu Zhang, Chong Ruan, Damai Dai, Deli Chen, Dongjie Ji, Erhang Li, Fangyun Lin, Fucong Dai, Fuli Luo, Guangbo Hao, Guanting Chen, Guowei Li, H. Zhang, Han Bao, Hanwei Xu, Haocheng Wang, Honghui Ding, Huajian Xin, Huazuo Gao, Hui Qu, Hui Li, Jianzhong Guo, Jiashi Li, Jiawei Wang, Jingchang Chen, Jingyang Yuan, Junjie Qiu, Junlong Li, J. L. Cai, Jiaqi Ni, Jian Liang, Jin Chen, Kai Dong, Kai Hu, Kaige Gao, Kang Guan, Kexin Huang, Kuai Yu, Lean Wang, Lecong Zhang, Liang Zhao, Litong Wang, Liyue Zhang, Lei Xu, Leyi Xia, Mingchuan Zhang, Minghua Zhang, Minghui Tang, Meng Li, Miaojun Wang, Mingming Li, Ning Tian, Panpan Huang, Peng Zhang, Qiancheng Wang, Qinyu Chen, Qiushi Du, Ruiqi Ge, Ruisong Zhang, Ruizhe Pan, Runji Wang, R. J. Chen, R. L. Jin, Ruyi Chen, Shanghao Lu, Shangyan Zhou, Shanhuang Chen, Shengfeng Ye, Shiyu Wang, Shuiping Yu, Shunfeng Zhou, Shuting Pan, S. S. Li, Shuang Zhou, Shaoqing Wu, Shengfeng Ye, Tao Yun, Tian Pei, Tianyu Sun, T. Wang, Wangding Zeng, Wanjia Zhao, Wen Liu, Wenfeng Liang, Wenjun Gao, Wenqin Yu, Wentao Zhang, W. L. Xiao, Wei An, Xiaodong Liu, Xiaohan Wang, Xiaokang Chen, Xiaotao Nie, Xin Cheng, Xin Liu, Xin Xie, Xingchao Liu, Xinyu Yang, Xinyuan Li, Xuecheng Su, Xuheng Lin, X. Q. Li, Xiangyue Jin, Xiaojin Shen, Xiaosha Chen, Xiaowen Sun, Xiaoxiang Wang, Xinnan Song, Xinyi Zhou, Xianzu Wang, Xinxia Shan, Y. K. Li, Y. Q. Wang, Y. X. Wei, Yang Zhang, Yanhong Xu, Yao Li, Yao Zhao, Yaofeng Sun, Yaohui Wang, Yi Yu, Yichao Zhang, Yifan Shi, Yiliang Xiong, Ying He, Yishi Piao, Yisong Wang, Yixuan Tan, Yiyang Ma, Yiyuan Liu, Yongqiang Guo, Yuan Ou, Yuduan Wang, Yue Gong, Yuheng Zou, Yujia He, Yunfan Xiong, Yuxiang Luo, Yuxiang You, Yuxuan Liu, Yuyang Zhou, Y. X. Zhu, Yanhong Xu, Yanping Huang, Yaohui Li, Yi Zheng, Yuchen Zhu, Yunxian Ma, Ying Tang, Yukun Zha, Yuting Yan, Z. Z. Ren, Zehui Ren, Zhangli Sha, Zhe Fu, Zhean Xu, Zhenda Xie, Zhengyan Zhang, Zhewen Hao, Zhicheng Ma, Zhigang Yan, Zhiyu Wu, Zihui Gu, Zijia Zhu, Zijun Liu, Zilin Li, Ziwei Xie, Ziyang Song, Zizheng Pan, Zhen Huang, Zhipeng Xu, Zhongyu Zhang, Zhen Zhang•Jan 22, 2025•3685
Qwen2.5 技术报告Qwen2.5 Technical Report
Qwen2.5 技术报告
Qwen2.5 Technical Report
Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan Qiu•Dec 19, 2024•36311