본 논문은 모바일 서비스 로봇에서 기초 모델(Large Language Models, Vision-Language Models, Multimodal Large Language Models, Vision-Language-Action Models 등) 통합에 대한 최초의 체계적인 검토를 제시합니다. 기초 모델과 구현된 AI 원칙(물리적 상호 작용을 통해 지각, 추론, 행동하는 시스템)을 결합하여 로봇이 역동적인 실제 환경에서 복잡한 작업을 이해하고, 적응하고, 실행하도록 개선하는 방법을 조사합니다. 실시간 센서 융합, 언어 조건 제어, 적응형 작업 실행에서 기초 모델의 역할을 탐구하고, 가정 보조, 의료, 서비스 자동화 분야의 실제 응용 프로그램을 논의하며 기초 모델의 변혁적 영향을 보여줍니다. 또한 예측적 스케일링 법칙, 자율적 장기 적응, 교차 구현 일반화의 필요성을 강조하는 미래 연구 방향을 제시합니다. 모바일 서비스 로봇에서 구현된 AI가 직면하는 주요 과제(다중 모드 센서 융합, 불확실성 하에서의 실시간 의사 결정, 작업 일반화, 효과적인 인간-로봇 상호 작용(HRI))를 확인하고 기초 모델이 이러한 과제를 어떻게 해결할 수 있는지 검토합니다.