Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Scaling Implicit Fields via Hypernetwork-Driven Multiscale Coordinate Transformations

Created by
  • Haebom
Category
Empty

저자

Plein Versace

개요

본 논문은 이미지, 3D 형상, 부호 거리장, 방사율장과 같은 신호를 표현하는 데 사용되는 Implicit Neural Representations (INRs)의 한계를 극복하기 위해 Hyper-Coordinate Implicit Neural Representations (HC-INR)을 제안합니다. HC-INR은 hypernetwork를 사용하여 신호 적응형 좌표 변환을 학습함으로써 표현 병목 현상을 해결하고, 계층적 메커니즘을 통해 신호 복잡도에 동적으로 적응합니다. HC-INR은 multiscale 좌표 변환 모듈과 compact implicit field network로 구성되며, 기존 INR보다 높은 재구성 충실도를 보이며 파라미터 수를 줄입니다.

시사점, 한계점

시사점:
INR의 표현 능력을 향상시키고 표현 병목 현상을 해결.
신호 복잡도에 동적으로 적응하는 계층적 구조 도입.
기존 INR 대비 향상된 재구성 충실도 및 파라미터 효율성.
수학적 분석을 통해 표현 가능한 주파수 대역의 증가와 립시츠 안정성 유지 입증.
한계점:
구체적인 한계점에 대한 논문 내 언급 없음.
👍