본 논문은 파라미터 효율적 미세 조정(PEFT)과 표현 미세 조정(ReFT)의 성능 비교를 통해, ReFT가 수학적 추론 과제에서 성능 저하를 보이는 원인을 분석하고, 이를 개선하기 위한 Bias-REstrained Prefix Representation FineTuning (BREP ReFT)를 제안한다. BREP ReFT는 초기 추론 접두사 생성 최적화, 오류 누적 방지, 수치 인코딩 방해 최소화를 통해 ReFT의 수학적 추론 능력을 향상시킨다. 다양한 모델 아키텍처에서 BREP ReFT가 표준 ReFT 및 가중치 기반 PEFT 방법보다 우수한 성능을 보임을 실험적으로 입증했다.