본 논문은 대규모 언어 모델(LLM)의 추론 효율을 높이기 위해 정밀도를 낮추는 과정에서 발생하는 정확도 저하 문제를 해결하는 새로운 4비트 부동소수점 형식인 AMXFP4를 제안합니다. 기존의 MXFP4 형식은 활성화 값의 이상치를 억제하지만, 그룹 간 비대칭성이 증가하는 단점이 있습니다. AMXFP4는 비대칭 공유 스케일을 사용하여 이러한 문제를 해결하며, 추가적인 보정 과정 없이 완전한 양자화 행렬 곱셈을 가능하게 합니다. 실험 결과, AMXFP4는 VQA에서 MXFP4보다 3%, CSQA에서 회전 기반 방법보다 1.6% 높은 정확도를 달성했으며, 최근 상용화된 MXFP4 변형보다도 우수한 성능을 보였습니다.