본 논문은 저자원 언어 환경에서 대규모 사전 훈련된 변환기 모델을 효율적으로 사용하기 위한 연구를 제시한다. 특히, 음성 인식 모델 Whisper를 대상으로, Bambara어를 예시로 32시간의 음성-텍스트 데이터를 활용하여 모델 경량화 기법을 제안한다. 어휘량 축소 대신 임베딩 압축, 특징 증류, 레이어 병합 등의 방법을 통해 모델 크기를 줄이고 속도를 향상시켰다. 결과적으로, 모델 성능 저하를 최소화하면서 모델 크기를 48% 줄이고, MacBook Air M1에서 2.15배 빠른 속도를 달성했다.