본 논문은 교육이나 체력 훈련과 같은 일상적인 상황에 로봇을 통합하기 위해 적응적이고 사회적으로 참여하며 목표 지향적인 상호 작용이 가능한 로봇을 개발하는 것을 목표로 합니다. 대규모 언어 모델(LLM)은 사람과 같은 의사소통에 유망하지만, 메모리 제약 및 문맥 불일관성으로 인해 단독으로 사용하는 데 어려움이 있습니다. 따라서 본 연구는 사회적이고 과제 중심적인 인간-로봇 상호 작용(HRI)에서 LLM 기반 자율적 의사 결정을 향상시키는 다중 모드의 인지적으로 영감을 받은 프레임워크를 제시합니다. 특히, 로봇 트레이너를 위한 LLM 기반 에이전트를 개발하여 사회적 대화와 과제 안내 및 목표 지향적 동기를 균형 있게 조정합니다. 자율성과 개인화를 더욱 향상시키기 위해, 다양한 상호 작용을 통해 구축된 지식을 기반으로 일반화된 추론을 가능하게 하는 경험 선택, 저장 및 검색을 위한 메모리 시스템을 도입합니다. 예비 HRI 사용자 연구와 합성 데이터 세트를 사용한 오프라인 실험을 통해 시스템의 복잡한 상호 작용 관리, 자율적인 훈련 과제 수행, 문맥 메모리 구축 및 검색 능력을 검증하여 사회적으로 지능적인 로봇 기술을 발전시켰습니다.