Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

VNJPTranslate: A comprehensive pipeline for Vietnamese-Japanese translation

Created by
  • Haebom

저자

Hoang Hai Phan, Nguyen Duc Minh Vu, Nam Dang Phuong

개요

Transformer 기반의 신경 기계 번역(NMT)은 크게 발전했지만, 베트남어-일본어(Vi-Ja)와 같이 저자원 언어 쌍에는 여전히 병렬 데이터 부족과 언어/문화적 미묘함 처리 문제가 있습니다. 강력한 추론 능력을 가진 대규모 언어 모델(LLM)의 최근 발전과 강화 학습(RL)을 통한 모델 개선은 고품질 합성 데이터 생성을 가능하게 합니다. 본 논문에서는 Vi-Ja 번역 과제를 체계적으로 해결하기 위해 설계된 VNJPTranslate 파이프라인을 소개합니다. 이 파이프라인은 말뭉치 분석을 통해 식별된 어려운 구문에 대해 Chain-of-Thought 프롬프팅을 사용하는 고급 LLM을 이용한 표적 데이터 증강 전략을 특징으로 합니다. 그 후, 효율적인 미세 조정 기법(Unsloth with QLoRA)을 사용하여 능력이 뛰어나고 매개변수가 적은 자기회귀 모델(특히, Qwen 아키텍처를 기반으로 하는 18억 매개변수 Sailor 모델의 미세 조정 버전)을 미세 조정하여 실용적이고 고성능의 번역 시스템을 만듭니다. 이 통합된 접근 방식은 기존 기준선보다 Vi-Ja 번역 품질을 크게 향상시키는 것을 목표로 합니다.

시사점, 한계점

시사점:
저자원 언어 쌍(Vi-Ja) 번역을 위한 효과적인 데이터 증강 및 모델 미세 조정 파이프라인(VNJPTranslate) 제시.
Chain-of-Thought 프롬프팅과 LLM을 활용한 표적 데이터 증강 전략의 효용성 확인.
효율적인 미세 조정 기법(Unsloth with QLoRA)을 사용하여 저매개변수 모델의 성능 향상 가능성 제시.
기존 기준선 대비 Vi-Ja 번역 품질 향상.
한계점:
제안된 파이프라인의 일반화 성능에 대한 추가 연구 필요. 다른 저자원 언어 쌍에 대한 적용성 검증 필요.
LLM을 이용한 데이터 증강의 신뢰성 및 품질에 대한 추가적인 평가 필요.
사용된 LLM 및 모델의 특정 아키텍처에 대한 의존성. 다른 모델로의 일반화 가능성에 대한 추가 연구 필요.
실제 번역 품질 평가를 위한 정량적 지표 제시 부족 (추가 실험 결과 필요).
👍