본 논문은 저자원 언어의 중요성이 커지고 있는 정보 검색(IR) 분야에서 우르두어와 로마자 우르두어 간의 음역 변환에 대한 연구를 제시합니다. 기존 RNN 기반 연구의 도메인 적응력 저하 및 평가의 한계를 극복하기 위해, m2m100 다국어 번역 모델을 기반으로 마스크 언어 모델링(MLM) 사전 훈련 및 Roman-Urdu-Parl 및 Dakshina 데이터셋을 활용한 미세 조정을 통해 트랜스포머 기반 접근 방식을 제안합니다. 엄격한 데이터셋 분할 및 BLEU, 문자 수준 BLEU, CHRF 평가 지표를 사용하여 우르두어->로마자 우르두어 96.37, 로마자 우르두어->우르두어 97.44의 Char-BLEU 점수를 달성, RNN 기준 및 GPT-4o Mini를 능가하는 성능을 보였습니다. 이는 저자원 언어 음역 변환 작업에 대한 다국어 전이 학습의 효과를 보여줍니다.