Sign In

DelTA: An Online Document-Level Translation Agent Based on Multi-Level Memory

Created by
  • Haebom
Category
Empty

저자

Yutong Wang, Jiali Zeng, Xuebo Liu, Derek F. Wong, Fandong Meng, Jie Zhou, Min Zhang

개요

본 논문은 문서 번역에서 일관성과 정확성을 유지하는 데 어려움을 겪는 기존 대규모 언어 모델(LLM) 기반 기계 번역(MT) 연구의 한계를 극복하기 위해, 다중 레벨 메모리 구조를 갖춘 문서 수준 번역 에이전트 DelTA를 제안한다. DelTA는 고유 명사 기록, 이중 언어 요약, 장기 메모리, 단기 메모리 등 다양한 수준의 정보를 저장하고 보조 LLM 기반 구성 요소를 통해 지속적으로 검색 및 업데이트한다. 문장 단위 번역 전략을 사용하여 문장 누락을 방지하고 메모리 효율성을 높이며, 네 개의 오픈/클로즈 소스 LLM과 두 개의 대표적인 문서 번역 데이터셋을 사용한 실험 결과, 일관성 점수를 최대 4.58%p, COMET 점수를 평균 최대 3.16점 향상시키는 것으로 나타났다. 또한 대명사 및 맥락 의존적 번역 정확도를 향상시키며, 요약 구성 요소는 질의 기반 요약 작업에도 유용함을 보였다. 코드와 데이터는 깃허브에 공개되었다.

시사점, 한계점

시사점:
문서 수준의 기계 번역에서 일관성과 정확성을 향상시키는 새로운 방법 제시
다중 레벨 메모리 구조를 활용하여 장문 번역의 어려움 해결
문장 단위 번역으로 메모리 효율성 및 번역 정확도 향상
대명사 및 맥락 의존적 번역 정확도 개선
요약 기능을 활용한 질의 기반 요약 가능성 제시
오픈소스로 공개되어 다른 연구자들의 활용 및 발전 가능
한계점:
특정 LLM과 데이터셋에 대한 실험 결과만 제시되어 일반화 가능성에 대한 추가 연구 필요
다중 레벨 메모리 구조의 복잡성으로 인한 계산 비용 증가 가능성
다른 문서 번역 방법론과의 비교 분석이 더욱 필요
👍