Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Fine-Grained and Multi-Dimensional Metrics for Document-Level Machine Translation

Created by
  • Haebom

저자

Yirong Sun, Dawei Zhu, Yanjun Chen, Erjia Xiao, Xinghao Chen, Xiaoyu Shen

개요

본 논문은 지시어 조정된 거대 언어 모델(LLM)의 문서 수준 번역(docMT) 능력을 조사합니다. 기존의 특수 기법이 필요한 접근 방식과 달리, 전체 문서를 한 번에 번역하도록 LLM에 직접 프롬프트하여 평가합니다. 실험 결과, 문장 단위 번역과 비교하여 번역 품질이 향상됨을 보였지만, BLEU 점수에는 이러한 이점이 반영되지 않았습니다. 따라서, GPT-4를 사용하여 문서의 일관성, 정확성, 유창성을 더욱 세밀하게 평가하는 LLM-as-a-judge 패러다임을 제안합니다. 결론적으로, 지시어 조정된 LLM은 문서 맥락을 효과적으로 활용하여 번역할 수 있음을 보여주지만, BLEU 점수는 문서 수준 번역 평가에 부적절함을 강조합니다.

시사점, 한계점

시사점: 지시어 조정된 LLM은 추가적인 문서 수준 미세 조정 없이도 전체 문서를 한 번에 번역하여 문장 단위 번역보다 나은 번역 품질을 달성할 수 있음을 보여줍니다. LLM-as-a-judge 패러다임은 n-gram 기반 평가 지표의 한계를 극복하는 새로운 평가 방법을 제시합니다.
한계점: BLEU 점수는 문서 수준 번역의 질을 제대로 포착하지 못하며 오해의 소지가 있음을 보여줍니다. 본 연구는 특정 LLM과 GPT-4에 의존하며, 다른 LLM이나 평가 모델에 대한 일반화 가능성은 추가 연구가 필요합니다.
👍