ChatPaper.aiChatPaper

암시적 신경 표현을 위한 단일층 학습 가능 활성화 (SL^{2}A-INR)

Single-Layer Learnable Activation for Implicit Neural Representation (SL^{2}A-INR)

September 17, 2024
저자: Moein Heidari, Reza Rezaeian, Reza Azad, Dorit Merhof, Hamid Soltanian-Zadeh, Ilker Hacihaliloglu
cs.AI

초록

암묵적 신경 표현 (INR)은 신경망을 활용하여 좌표 입력을 해당 속성으로 변환하는데, 최근 여러 시각 관련 도메인에서 중요한 발전을 이끌어내고 있습니다. 그러나 INR의 성능은 다층 퍼셉트론 (MLP) 구조에서 사용되는 비선형 활성화 함수의 선택에 크게 영향을 받습니다. 다양한 비선형성이 조사되었지만, 현재 INR은 고주파 성분, 다양한 신호 유형 및 역문제를 처리하는 능력에 제한이 있습니다. 우리는 이러한 문제들이 INR에서 패러다임 변화를 통해 크게 완화될 수 있다는 것을 확인했습니다. 초기 레이어에서 학습 가능한 활성화를 갖는 아키텍처는 기저 신호의 세부 사항을 잘 나타낼 수 있습니다. 구체적으로, 우리는 SL^{2}A-INR이라는 하이브리드 네트워크를 제안합니다. 이는 단일 레이어 학습 가능 활성화 함수를 갖는 INR로, 기존의 ReLU 기반 MLP의 효과를 높이는 방향으로 작용합니다. 우리의 방법은 이미지 표현, 3D 형상 재구성, 인페인팅, 단일 이미지 초해상도, CT 재구성 및 새로운 시각 합성을 포함한 다양한 작업에서 우수한 성능을 발휘합니다. 포괄적인 실험을 통해, SL^{2}A-INR은 INR의 정확도, 품질 및 수렴 속도에 대한 새로운 기준을 설정합니다.
English
Implicit Neural Representation (INR), leveraging a neural network to transform coordinate input into corresponding attributes, has recently driven significant advances in several vision-related domains. However, the performance of INR is heavily influenced by the choice of the nonlinear activation function used in its multilayer perceptron (MLP) architecture. Multiple nonlinearities have been investigated; yet, current INRs face limitations in capturing high-frequency components, diverse signal types, and handling inverse problems. We have identified that these problems can be greatly alleviated by introducing a paradigm shift in INRs. We find that an architecture with learnable activations in initial layers can represent fine details in the underlying signals. Specifically, we propose SL^{2}A-INR, a hybrid network for INR with a single-layer learnable activation function, prompting the effectiveness of traditional ReLU-based MLPs. Our method performs superior across diverse tasks, including image representation, 3D shape reconstructions, inpainting, single image super-resolution, CT reconstruction, and novel view synthesis. Through comprehensive experiments, SL^{2}A-INR sets new benchmarks in accuracy, quality, and convergence rates for INR.

Summary

AI-Generated Summary

PDF52November 16, 2024