Transformer 기반의 신경 기계 번역(NMT)은 크게 발전했지만, 베트남어-일본어(Vi-Ja)와 같이 저자원 언어 쌍에는 여전히 병렬 데이터 부족과 언어/문화적 미묘함 처리 문제가 있습니다. 강력한 추론 능력을 가진 대규모 언어 모델(LLM)의 최근 발전과 강화 학습(RL)을 통한 모델 개선은 고품질 합성 데이터 생성을 가능하게 합니다. 본 논문에서는 Vi-Ja 번역 과제를 체계적으로 해결하기 위해 설계된 VNJPTranslate 파이프라인을 소개합니다. 이 파이프라인은 말뭉치 분석을 통해 식별된 어려운 구문에 대해 Chain-of-Thought 프롬프팅을 사용하는 고급 LLM을 이용한 표적 데이터 증강 전략을 특징으로 합니다. 그 후, 효율적인 미세 조정 기법(Unsloth with QLoRA)을 사용하여 능력이 뛰어나고 매개변수가 적은 자기회귀 모델(특히, Qwen 아키텍처를 기반으로 하는 18억 매개변수 Sailor 모델의 미세 조정 버전)을 미세 조정하여 실용적이고 고성능의 번역 시스템을 만듭니다. 이 통합된 접근 방식은 기존 기준선보다 Vi-Ja 번역 품질을 크게 향상시키는 것을 목표로 합니다.