본 연구는 클라우드 기반 LLM의 한계를 보완하기 위해 엣지 디바이스에서 소형 언어 모델(SLM)을 배포하는 것에 주목하여, Raspberry Pi 5, Jetson Nano, Jetson Orin Nano에서 5개의 대표적인 SLM(Llama 3.2, Phi-3 Mini, TinyLlama, Gemma 2)의 전력 효율성을 평가했다. GPU 가속을 활용한 Jetson Orin Nano가 최고의 에너지 효율을 보였으며, Llama 3.2가 정확도와 전력 효율성 사이에서 가장 균형 잡힌 성능을, TinyLlama는 낮은 정확도 희생 하에 저전력 환경에 적합함을 확인했다.