본 논문은 오픈 도메인 환경에서 구현된 에이전트가 복잡한 작업을 더 효과적으로 수행할 수 있도록 실행 가능한 지식을 일반화하는 신경 기호 접근 방식을 탐구합니다. 제한된 경험으로 인해 종종 이전 지식에 국한되는 구현된 에이전트의 주요 과제는 다양한 환경과 상황에서의 지식 일반화입니다. 이 문제를 해결하기 위해, 본 논문은 대규모 언어 모델(LLM)과 기호 도구를 결합하여 제한된 경험으로부터 지식을 지속적으로 공식화하고 검증하는 가설-연역적 모델을 에뮬레이트하는 새로운 신경 기호 지속적 학습 프레임워크인 NeSyC를 제시합니다. 구체적으로, LLM을 사용하여 가설을 반복적으로 생성하고 기호 도구를 통해 대조적 검증을 수행하는 대조적 일반화 개선 계획을 NeSyC 내에 고안했습니다. 이 계획은 허용 가능한 행동에 대한 정당성을 강화하는 동시에 허용할 수 없는 행동의 추론을 최소화합니다. 또한, 행동 오류를 효율적으로 감지하고 도메인 간 지식 개선 프로세스를 트리거하는 메모리 기반 모니터링 계획을 통합했습니다. ALFWorld, VirtualHome, Minecraft, RLBench 및 실제 로봇 시나리오를 포함한 다양한 구현된 작업 벤치마크에서 수행된 실험은 NeSyC가 다양한 오픈 도메인 환경에서 복잡한 구현된 작업을 해결하는 데 매우 효과적임을 보여줍니다.