Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

OWL: Probing Cross-Lingual Recall of Memorized Texts via World Literature

Created by
  • Haebom

저자

Alisha Srivastava, Emir Korukluoglu, Minh Nhat Le, Duyen Tran, Chau Minh Pham, Marzena Karpinska, Mohit Iyyer

개요

본 논문은 대규모 언어 모델(LLM)의 다국어 및 교차 언어 기억 능력을 조사합니다. 영어를 포함한 10개 언어의 20권의 책에서 발췌한 31,500개의 정렬된 구절로 구성된 OWL 데이터셋을 사용하여, 한 언어(예: 영어)에서 기억된 내용이 번역된 형태로 제시되었을 때도 회상되는지 여부를 조사합니다. 직접적인 조사, 이름 빈칸 채우기, 접두사 조사 세 가지 과제를 통해 모델 계열과 크기에 따른 기억 능력을 평가합니다. 그 결과, LLM은 사전 학습 데이터에 직접적인 번역이 없더라도 언어 간에 일관되게 내용을 기억하는 것으로 나타났습니다. 예를 들어 GPT-4o는 새롭게 번역된 발췌문에서 저자와 제목을 69%의 확률로, 가려진 개체를 6%의 확률로 식별했습니다. 문자 마스킹이나 단어 섞기와 같은 섭동은 직접 조사 정확도를 다소 감소시켰습니다 (섞인 공식 번역의 경우 7% 감소). 본 연구는 교차 언어 기억의 범위를 강조하고 모델 간의 차이에 대한 통찰력을 제공합니다.

시사점, 한계점

시사점:
LLM이 다국어 및 교차 언어적으로 내용을 기억하는 능력을 정량적으로 보여줌.
저자원 언어를 포함한 다양한 언어에 대한 교차 언어 기억 능력을 확인.
모델 크기와 아키텍처에 따른 기억 능력의 차이를 분석.
텍스트 섭동에 대한 기억 능력의 민감도를 측정.
한계점:
OWL 데이터셋은 20권의 책에 한정되어 일반화 가능성에 제한이 있을 수 있음.
평가 과제가 제한적이어서 LLM의 기억 능력의 모든 측면을 포괄하지 못할 수 있음.
섭동의 종류와 강도가 제한적임.
다양한 유형의 번역(기계 번역, 인간 번역 등)에 대한 비교 분석이 부족함.
👍