Llama, Mistral과 같은 대규모 언어 모델(LLM)의 등장으로 제로샷(zero-shot) 교차 언어 전이가 가능해졌지만, 이러한 디코더 기반 LLM을 새로운 언어에 적응시키는 것은 여전히 어려운 과제입니다. 본 연구는 Low-Rank Adaptation (LoRA)과 같은 매개변수 효율적 미세 조정(PeFT) 기법 외에, soft prompt tuning, prefix tuning, Llama Adapter와 같은 prefix 기반 기법을 제로샷 교차 언어 전이에 적용하여 연구했습니다. 영어에서 35개 이상의 고·저자원 언어로의 제로샷 교차 언어 전이를 위한 세 가지 prefix 기반 방법을 종합적으로 연구했으며, 언어 계열 및 스크립트 간 전이, 1B에서 24B까지 모델 크기 확장의 영향도 분석했습니다. Llama 3.1 8B를 사용한 결과, prefix 방법은 Belebele 벤치마크에서 LoRA 기반보다 최대 6% 높은 성능을 보였고, Mistral v0.3 7B에서도 유사한 개선이 관찰되었습니다. Prefix tuning을 사용하여 123만 개의 학습 매개변수만 사용했음에도 불구하고, 다양한 벤치마크에서 일관된 개선을 달성했습니다.