본 논문은 전 세계 7,000여 개 언어 중 소수 언어만 지원하는 현 대규모 언어 모델(LLM)의 한계를 다룹니다. 기존 연구에서 LLM이 지도 학습 데이터 없이 새로운 언어를 학습할 수 있다는 점을 바탕으로, 본 연구는 in-context learning (ICL)을 통해 LLM이 훈련되지 않은 저자원 언어의 음성 인식을 학습할 수 있는지 조사합니다. 네 가지 다양한 멸종 위기 언어를 대상으로 한 실험을 통해, 관련 텍스트 샘플을 더 많이 제공할수록 언어 모델링 및 자동 음성 인식(ASR) 작업의 성능이 향상됨을 보여줍니다. 또한, 확률 기반 접근 방식이 기존의 지시 기반 접근 방식보다 언어 학습에 더 효과적임을 밝힙니다. 마지막으로, ICL을 통해 LLM이 해당 언어를 위해 특별히 훈련된 전용 언어 모델과 비슷하거나 심지어 능가하는 ASR 성능을 달성하면서도 LLM의 원래 기능을 유지할 수 있음을 보여줍니다.