Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

DeFTX: Denoised Sparse Fine-Tuning for Zero-Shot Cross-Lingual Transfer

Created by
  • Haebom

저자

Sona Elza Simon, Preethi Jyothi

개요

본 논문은 고자원 언어에서 저자원 언어로 대규모 언어 모델의 이점을 확장하는 데 있어 효과적인 교차 언어 전이가 중요한 과제임을 다룹니다. 기존 연구에서는 고자원 소스 언어의 작업 관련 데이터와 저자원 대상 언어의 비표지 데이터를 결합하는 다양한 접근 방식을 탐구했습니다. 본 논문에서는 사전 훈련된 모델의 가중치 행렬을 특이값 분해를 사용하여 잡음 제거한 후 크기 기반 가지치기를 수행하는 새로운 합성 가능한 SFT(Composable Sparse Fine-tuning) 접근 방식인 DeFT-X를 제시합니다. DeFT-X는 감정 분류(NusaX) 및 자연어 추론(AmericasNLI) 작업에서 다양한 극저자원 언어에 대해 평가되었으며, SFT 및 기타 주요 교차 언어 전이 기준선과 동등하거나 우수한 성능을 보였습니다.

시사점, 한계점

시사점:
특이값 분해를 이용한 잡음 제거를 통해 기존 SFT보다 더욱 강건한 SFT를 생성하는 DeFT-X 방법 제시.
극저자원 언어에서 감정 분류와 자연어 추론 작업에 대한 우수한 성능 검증.
효과적인 교차 언어 전이를 위한 새로운 접근 방식을 제시하여 저자원 언어 처리 발전에 기여.
한계점:
제시된 방법의 일반화 성능에 대한 추가적인 연구 필요.
다양한 저자원 언어 및 작업에 대한 추가적인 실험이 필요.
특이값 분해를 통한 잡음 제거 과정의 계산 비용에 대한 고려 필요.
👍