본 논문은 대규모 언어 모델(LLM)의 다지선다형 질문 응답 시 나타나는 선택 편향 문제를 해결하기 위한 새로운 방법을 제시합니다. 기존 연구들이 모델 입력 또는 출력 조정에 초점을 맞춘 것과 달리, 본 연구는 모델 내부의 편향 원인을 제거하는 데 중점을 둡니다. 두 가지 방법, 즉 선택 편향에 기여하는 매개변수를 제거하는 Bias Node Pruning (BNP)과 추가적인 선택지를 도입하여 편향을 줄이는 Auxiliary Option Injection (AOI)을 제안합니다. 또한 기존 평가 지표의 한계를 극복하기 위해 모델 예측의 분포 불균형을 포착하는 새로운 지표인 Choice Kullback-Leibler Divergence (CKLD)를 제안합니다. 여러 LLM과 데이터셋에 대한 실험 결과, 제안된 방법들이 선택 편향을 줄이면서 정답률을 향상시키는 것을 보여줍니다.