본 논문은 현재 대규모 언어 모델(LLM)이 지원하는 언어가 전 세계 7,000개 언어 중 일부에 불과하다는 점에 주목하여, LLM이 감독 학습 없이 새로운 언어를 배울 수 있는지 연구한다. 특히, 음성 인식 분야에서 LLM이 문맥 내 학습(ICL)을 통해 학습되지 않은 저자원 언어를 학습할 수 있는지 탐구한다. 멸종 위기에 처한 네 개의 다양한 언어를 대상으로 실험한 결과, 더 관련성 높은 텍스트 샘플을 제공하는 것이 언어 모델링 및 자동 음성 인식(ASR) 작업의 성능을 향상시키는 것으로 나타났다. 또한, 확률 기반 접근 방식이 전통적인 지시 기반 접근 방식보다 언어 학습에 더 효과적임을 확인했다. 마지막으로, ICL을 통해 LLM이 해당 언어만을 위해 특별히 훈련된 전용 언어 모델과 동등하거나 더 나은 ASR 성능을 달성하면서, LLM의 원래 기능을 유지할 수 있음을 입증했다.