본 논문은 고비용의 계산 자원을 필요로 하는 대규모 언어 모델(LLM)의 배포 문제를 해결하기 위해, 사후 학습 양자화(PTQ) 기반의 새로운 회전 행렬 생성 방법을 제안합니다. 기존 회전 기반 방법들이 2-bit와 같이 매우 낮은 비트 너비에서 성능 저하를 보이는 문제를 해결하기 위해, 왈시-아다마르 변환과 시퀀시 정렬을 활용하여 유사한 주파수 성분을 클러스터링함으로써 양자화 오류를 줄이는 새로운 접근 방식을 제시합니다. 특히, 작은 왈시 블록을 가진 블록 대각 행렬을 사용하는 그룹화된 시퀀시 정렬 회전(GSR) 기법을 통해 이상치의 영향을 효과적으로 분리하고, 학습 기반 최적화 방법에 필적하는 성능을 달성합니다. WikiText-2 데이터셋을 이용한 추론 작업 및 퍼플렉서티(PPL) 점수 평가를 통해 제안된 방법의 성능을 검증하며, 기존 학습된 회전 기법에 적용하여 성능 향상을 보임을 확인합니다.