본 연구는 대규모 언어 모델(LLM)의 성능 향상이 다른 작업 및 언어에 미치는 영향을 이해하기 위해, 여러 오픈 가중치 LLM 제품군과 크기를 대상으로 PEFT/LoRA 기법을 활용한 제어된 연구를 수행합니다. 각 모델을 단일 작업-언어 데이터로 미세 조정하고, 다른 모든 작업-언어 쌍에 대한 평가 점수의 변화를 측정하여 전이 학습 효과를 분석합니다. 연구는 (i) 동일 작업 (교차 언어), (ii) 동일 언어 (교차 작업), (iii) 교차 작업 (교차 언어) 전이 학습으로 구분하여 진행되었습니다.