본 논문은 모바일 기기에서 대규모 언어 모델(LLM)을 구축하는 것의 효율성 저하 문제를 다룹니다. 모바일, 에지, 클라우드 기반 배포 방식 간의 효율성 차이를 평가하기 위해 스마트폰 센서 데이터를 분석하여 사용자 위치와 활동 맥락을 추론하는 간소화된 LLM 기반 애플리케이션인 AutoLife-Lite를 구현하여 실험을 진행했습니다. 실험 결과, 4B 미만의 소규모 LLM만 강력한 모바일 기기에서 성공적으로 실행될 수 있으며, 모델 압축은 하드웨어 요구 사항을 낮추지만 성능 저하를 초래할 수 있음을 보였습니다. 또한, 모바일 기기에서 의미 있는 출력을 얻기 위한 LLM 실행 지연 시간은 30초를 초과하는 반면 클라우드 서비스는 10초 미만의 시간 효율성을 보였으며, 에지 배포는 지연 시간과 모델 성능 간에 중간 수준의 절충안을 제공하지만 CPU 기반과 GPU 기반 설정에 따라 결과가 다름을 확인했습니다.