본 논문은 매개변수 효율적인 미세 조정(PEFT) 방법 중 하나인 Prefix-Tuning의 한계점을 분석하고, 이를 개선한 Prefix-Tuning+를 제시합니다. 기존 Prefix-Tuning은 어텐션 헤드 내 입력과 프리픽스의 중요도 간의 상충 관계로 인해 최신 대규모 언어 모델(LLM)에서 성능이 저조했으나, Prefix-Tuning+는 프리픽스 모듈을 어텐션 헤드 외부로 이동시킴으로써 이러한 문제를 해결합니다. 실험 결과, Prefix-Tuning+는 기존 Prefix-Tuning 방법과 비교하여 여러 벤치마크에서 일관되게 우수한 성능을 보였으며, LoRA와 유사한 성능을 달성하여 Prefix-Tuning의 현대적인 확장 가능성을 보여줍니다.