ChatPaper.aiChatPaper

SparseFlex: Modellazione 3D ad Alta Risoluzione e Topologia Arbitraria

SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling

March 27, 2025
Autori: Xianglong He, Zi-Xin Zou, Chia-Hao Chen, Yuan-Chen Guo, Ding Liang, Chun Yuan, Wanli Ouyang, Yan-Pei Cao, Yangguang Li
cs.AI

Abstract

La creazione di mesh 3D ad alta fedeltà con topologia arbitraria, incluse superfici aperte e interni complessi, rimane una sfida significativa. I metodi esistenti basati su campi impliciti spesso richiedono una conversione costosa e degradante in termini di dettagli verso superfici chiuse, mentre altri approcci faticano a gestire risoluzioni elevate. Questo articolo introduce SparseFlex, una nuova rappresentazione isosuperficiale a struttura sparsa che consente la ricostruzione differenziabile di mesh a risoluzioni fino a 1024^3 direttamente dalle perdite di rendering. SparseFlex combina la precisione di Flexicubes con una struttura voxel sparsa, concentrando il calcolo sulle regioni adiacenti alla superficie e gestendo in modo efficiente le superfici aperte. In modo cruciale, introduciamo una strategia di addestramento voxel sezionale consapevole del frustum che attiva solo i voxel rilevanti durante il rendering, riducendo drasticamente il consumo di memoria e consentendo l'addestramento ad alta risoluzione. Ciò permette, per la prima volta, la ricostruzione degli interni delle mesh utilizzando solo la supervisione del rendering. Basandoci su questo, dimostriamo una pipeline completa di modellazione delle forme addestrando un autoencoder variazionale (VAE) e un trasformatore a flusso rettificato per la generazione di forme 3D di alta qualità. I nostri esperimenti mostrano un'accuratezza di ricostruzione all'avanguardia, con una riduzione del ~82% nella distanza di Chamfer e un aumento del ~88% nell'F-score rispetto ai metodi precedenti, e dimostrano la generazione di forme 3D ad alta risoluzione e dettagliate con topologia arbitraria. Consentendo la ricostruzione e la generazione differenziabile di mesh ad alta risoluzione con perdite di rendering, SparseFlex avanza significativamente lo stato dell'arte nella rappresentazione e modellazione delle forme 3D.
English
Creating high-fidelity 3D meshes with arbitrary topology, including open surfaces and complex interiors, remains a significant challenge. Existing implicit field methods often require costly and detail-degrading watertight conversion, while other approaches struggle with high resolutions. This paper introduces SparseFlex, a novel sparse-structured isosurface representation that enables differentiable mesh reconstruction at resolutions up to 1024^3 directly from rendering losses. SparseFlex combines the accuracy of Flexicubes with a sparse voxel structure, focusing computation on surface-adjacent regions and efficiently handling open surfaces. Crucially, we introduce a frustum-aware sectional voxel training strategy that activates only relevant voxels during rendering, dramatically reducing memory consumption and enabling high-resolution training. This also allows, for the first time, the reconstruction of mesh interiors using only rendering supervision. Building upon this, we demonstrate a complete shape modeling pipeline by training a variational autoencoder (VAE) and a rectified flow transformer for high-quality 3D shape generation. Our experiments show state-of-the-art reconstruction accuracy, with a ~82% reduction in Chamfer Distance and a ~88% increase in F-score compared to previous methods, and demonstrate the generation of high-resolution, detailed 3D shapes with arbitrary topology. By enabling high-resolution, differentiable mesh reconstruction and generation with rendering losses, SparseFlex significantly advances the state-of-the-art in 3D shape representation and modeling.

Summary

AI-Generated Summary

PDF82March 31, 2025