본 논문은 대규모 언어 모델(LLM) 기반 코드 완성 엔진의 코드 품질 문제를 해결하기 위해 새로운 비교적 접두사 조정(comparative prefix-tuning) 방법을 제안한다. 기존의 여러 접두사를 학습하는 방법과 달리, 본 연구는 단일 속성 특정 접두사를 LLM의 활성화에 추가하여 경량화된 대안을 제공한다. 고품질 및 저품질 코드 쌍을 사용하여 시퀀스 수준 순위 손실을 도입, 모델이 고품질과 저품질 코드의 차이를 이해하고 코드 품질에 영향을 미치는 측면에 집중하도록 한다. Code Llama 7B 모델을 사용한 실험 결과, 특정 작업 범주에서 코드 품질을 100% 이상 향상시키는 것으로 나타났으며, ablation study와 일반화 실험을 통해 방법의 효과성과 일반화 성능을 확인했다. 데이터 생성 파이프라인을 설계하여 고품질 및 저품질 코드 쌍을 수집 및 주석 처리하는 과정도 포함한다.