본 논문은 전 세계 7,000여 개 언어 중 소수 언어만 지원하는 현 대규모 언어 모델(LLM)의 한계를 다룹니다. 기존 연구에서 LLM이 지도 학습 데이터 없이 새로운 언어를 특정 작업에 대해 학습할 수 있다는 점을 바탕으로, 본 연구는 in-context learning (ICL)을 통해 LLM이 학습되지 않은 저자원 언어의 음성 인식을 학습할 수 있는지 조사합니다. 네 가지 다양한 멸종 위기 언어를 대상으로 한 실험 결과, 관련 텍스트 샘플을 더 많이 제공할수록 언어 모델링과 자동 음성 인식(ASR) 작업 모두에서 성능이 향상됨을 확인했습니다. 또한 확률 기반 접근 방식이 기존의 지시 기반 접근 방식보다 언어 학습에 더 효과적임을 보였으며, ICL을 통해 LLM이 해당 언어에 대해 특별히 훈련된 전용 언어 모델과 비슷하거나 뛰어넘는 ASR 성능을 달성하면서 기존 기능도 유지할 수 있음을 입증했습니다.