본 논문은 고차원 데이터(이미지, 의료 스캔, 시계열 데이터 등)를 처리하는 기존 신경망 아키텍처의 한계를 지적하며, 고차원 텐서에 직접 작용하는 새로운 선형 변환인 NdLinear를 제안합니다. NdLinear는 각 데이터 차원에 따라 별도로 변환을 적용하여 데이터 구조를 유지하며, 표현력 향상, 파라미터 감소(최대 9배), 유리한 계산 성능을 제공합니다. CNN, RNN, Transformer, MLP 등 다양한 아키텍처와 비전, 언어, 시계열, 표 데이터 등 다양한 도메인에서 실험을 통해 그 효과를 검증하였으며, 기존 선형 계층의 간편한 대체재로서 차세대 신경망 아키텍처 개발에 기여할 수 있음을 보여줍니다. 특히, Large Language Model의 fine-tuning에 적용된 NdLinear-LoRA는 기존 LoRA보다 최대 9배 적은 학습 파라미터로 동등하거나 향상된 성능을 보였습니다.