본 논문은 고차원 및 다중 변수를 갖는 텐서 값 데이터에 특화된 새로운 Factorized Attention 프레임워크인 Higher-Order Transformer (HOT)를 제안합니다. HOT는 Kronecker 곱의 합 또는 모드별 어텐션 행렬의 합으로 다중 방식 어텐션을 표현하여 텐서 구조를 보존하면서 효율적으로 차원 간의 관계를 포착합니다. HOT는 완전한 고차 어텐션의 표현력을 유지하면서 팩터 분해 랭크를 통해 복잡성 제어를 가능하게 합니다. 2D 및 3D 데이터셋 실험 결과, HOT는 다변량 시계열 예측 및 이미지 분류에서 경쟁력 있는 성능을 달성하며, 계산 및 메모리 비용을 크게 절감했습니다.