본 논문은 매개변수 효율적인 미세 조정(PEFT) 방법 중 하나인 Prefix-Tuning의 한계점을 분석하고, 이를 개선한 Prefix-Tuning+를 제시합니다. Prefix-Tuning은 기존에 효과적이었지만, 최신 대규모 언어 모델(LLM)에서는 성능이 저하되는 문제점을 보였습니다. 논문에서는 이러한 현상이 어텐션 헤드 내 입력과 프리픽스의 중요도 간의 상충관계 때문임을 실험적으로 증명하고, 어텐션 헤드 외부에 프리픽스 모듈을 배치하여 이 문제를 해결하는 Prefix-Tuning+를 제안합니다. 실험 결과, Prefix-Tuning+는 기존 Prefix-Tuning 및 다른 PEFT 방법들보다 우수한 성능을 보이며, 특히 LoRA와 유사한 성능을 달성함을 보여줍니다. 이는 Prefix-Tuning의 개선을 통해 PEFT 분야에서 경쟁력 있는 방법으로 유지될 수 있음을 시사합니다.