$\mathit{NdLinear}$는 다차원 입력을 직접 처리하는 선형 레이어의 드롭인 대체재로, 입력 평탄화가 필요하지 않습니다. 각 차원을 따라 개별적으로 변환을 적용하여 네이티브 데이터 구조를 유지하면서 최소한의 메모리 오버헤드로 파라미터 수를 획기적으로 줄입니다. 구조화된 Tucker 분해를 통해 표현력을 유지하고 VC-dimension 스케일링을 보존함을 증명했습니다. 광범위한 실험을 통해 $\mathit{NdLinear}$이 상당한 파라미터 감소, 상당한 실행 시간 효율성 향상 및 최소한의 메모리 오버헤드를 달성할 수 있음을 입증했습니다. 예를 들어, $\mathit{NdLinear-LoRA}$는 언어 추론 작업에서 최대 9배 적은 파라미터를 사용하여 표준 LoRA와 일치하거나 능가합니다. CNN, RNN, Transformer, MLP에서 비전, 언어, 시계열 및 테이블 작업에 대한 실험을 통해 $\mathit{NdLinear}$의 효율성 향상을 지속적으로 보여주었습니다.