본 논문은 대규모 언어 모델(LLM)과 시각-언어 모델(VLM)을 포함한 기초 모델이 로봇 자율성과 인간-로봇 인터페이스에 새로운 접근 방식을 가능하게 한 최근 연구 동향을 조망합니다. 특히 시각-언어-행동 모델(VLA) 또는 대규모 행동 모델(LBM)이 로봇 시스템의 숙련도와 기능을 향상시키는 데 기여하는 부분에 초점을 맞추고, 에이전트 기반 응용 프로그램과 아키텍처로 나아가는 연구들을 검토합니다. GPT 스타일의 도구 인터페이스 탐색부터 AI 에이전트가 조정자, 계획자, 인식 행위자 또는 일반적인 인터페이스 역할을 하는 더 복잡한 시스템에 이르기까지 다양한 연구들을 다룹니다. 이러한 에이전트 아키텍처를 통해 로봇은 자연어 명령을 이해하고, API를 호출하며, 작업 순서를 계획하고, 운영 및 진단을 지원할 수 있습니다. 빠르게 발전하는 분야의 특성을 반영하여 동료 검토 연구뿐만 아니라 커뮤니티 주도 프로젝트, ROS 패키지, 산업 프레임워크 등도 함께 다루며, 모델 통합 접근 방식을 분류하기 위한 분류 체계를 제안하고, 현재 문헌에서 에이전트가 다양한 솔루션에서 수행하는 역할에 대한 비교 분석을 제공합니다.