CityGaussianV2: Effiziente und geometrisch genaue Rekonstruktion für groß angelegte Szenen

CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes

November 1, 2024
Autoren: Yang Liu, Chuanchen Luo, Zhongkai Mao, Junran Peng, Zhaoxiang Zhang
cs.AI

Zusammenfassung

In letzter Zeit hat die 3D-Gaußsche Splatting (3DGS) die Rekonstruktion von Strahlungsfeldern revolutioniert und zeigt eine effiziente und hochwertige Synthese von neuartigen Ansichten. Die präzise Darstellung von Oberflächen, insbesondere in großen und komplexen Szenarien, bleibt jedoch aufgrund der unstrukturierten Natur von 3DGS eine bedeutende Herausforderung. In diesem Papier präsentieren wir CityGaussianV2, einen neuartigen Ansatz für die Rekonstruktion von groß angelegten Szenen, der kritische Herausforderungen in Bezug auf geometrische Genauigkeit und Effizienz angeht. Aufbauend auf den günstigen Verallgemeinerungsfähigkeiten des 2D-Gaußschen Splatting (2DGS) gehen wir auf seine Konvergenz- und Skalierbarkeitsprobleme ein. Speziell implementieren wir eine auf Zerlegungsgradienten basierende Verdichtungs- und Tiefenregressionstechnik, um unscharfe Artefakte zu beseitigen und die Konvergenz zu beschleunigen. Um die Skalierung zu ermöglichen, führen wir einen Elongationsfilter ein, der die durch die Degeneration von 2DGS verursachte Gaußsche Zählexplosion mildert. Darüber hinaus optimieren wir die CityGaussian-Pipeline für paralleles Training, erreichen eine bis zu 10-fache Kompression, mindestens 25% Zeitersparnis beim Training und eine 50%ige Verringerung des Speicherverbrauchs. Wir haben auch Standardgeometriebenchmarks unter groß angelegten Szenen etabliert. Experimentelle Ergebnisse zeigen, dass unsere Methode eine vielversprechende Balance zwischen visueller Qualität, geometrischer Genauigkeit sowie Speicher- und Trainingskosten bietet. Die Projektseite ist unter https://dekuliutesla.github.io/CityGaussianV2/ verfügbar.
English
Recently, 3D Gaussian Splatting (3DGS) has revolutionized radiance field reconstruction, manifesting efficient and high-fidelity novel view synthesis. However, accurately representing surfaces, especially in large and complex scenarios, remains a significant challenge due to the unstructured nature of 3DGS. In this paper, we present CityGaussianV2, a novel approach for large-scale scene reconstruction that addresses critical challenges related to geometric accuracy and efficiency. Building on the favorable generalization capabilities of 2D Gaussian Splatting (2DGS), we address its convergence and scalability issues. Specifically, we implement a decomposed-gradient-based densification and depth regression technique to eliminate blurry artifacts and accelerate convergence. To scale up, we introduce an elongation filter that mitigates Gaussian count explosion caused by 2DGS degeneration. Furthermore, we optimize the CityGaussian pipeline for parallel training, achieving up to 10times compression, at least 25% savings in training time, and a 50% decrease in memory usage. We also established standard geometry benchmarks under large-scale scenes. Experimental results demonstrate that our method strikes a promising balance between visual quality, geometric accuracy, as well as storage and training costs. The project page is available at https://dekuliutesla.github.io/CityGaussianV2/.

Summary

AI-Generated Summary

PDF92November 13, 2024