본 논문은 대규모 언어 모델(LLM) 기반 코드 완성 엔진이 코드 품질 문제(코딩 표준 및 모범 사례 위반)를 야기할 수 있다는 문제점을 제기하며, 이를 해결하기 위한 새로운 비교적 접두사 튜닝(comparative prefix-tuning) 방법을 제안합니다. 이 방법은 단일 속성별 접두사를 LLM 활성화에 추가하여 경량의 대안을 제시하며, 고품질 및 저품질 코드 쌍을 사용하여 시퀀스 수준 순위 손실을 도입함으로써 모델이 고품질 코드와 저품질 코드의 차이를 이해하도록 합니다. Code Llama 7B 모델을 이용한 실험 결과, 특정 작업 범주에서 코드 품질을 100% 이상 향상시키는 것으로 나타났습니다. 또한, ablation study와 일반화 실험을 통해 방법의 효과와 일반화 성능을 확인했습니다.