본 논문은 데이터센터 및 클라우드 환경에서 주로 사용되는 대규모 언어 모델(LLM)과 달리, 현대 스마트 기기에서 널리 사용되지만 학문적 관심이 상대적으로 적은 소규모 언어 모델(SLM)을 조사한 연구이다. 1억~50억 파라미터의 transformer 기반 디코더 전용 언어 모델에 초점을 맞춰, 70개의 최첨단 오픈소스 SLM을 분석한다. 분석 범위는 아키텍처, 훈련 데이터셋, 훈련 알고리즘 세 가지 축이며, 상식 추론, 문맥 내 학습, 수학, 코딩 등 다양한 영역에서의 성능을 평가하고 추론 지연 시간 및 메모리 사용량을 벤치마킹하여 온디바이스 실행 비용에 대한 통찰력을 제공한다.