본 논문은 강화 학습(RL)의 비효율성과 불안정성을 개선하기 위해 인간 지능(HI-RL)을 모방한 Conceptual Belief-Informed Reinforcement Learning (HI-RL)을 제안합니다. HI-RL은 환경의 핵심 정보를 추상화하여 개념을 형성하고, 불확실성과 사전 지식을 통합하여 개념 관련 확률적 신념을 구성하여 경험 기반 우선 정보를 제공합니다. 이를 통해 기존 RL 프레임워크에 직접 통합하여 샘플 효율성과 성능을 향상시키는 것을 목표로 합니다. DQN, PPO, SAC, TD3 등 다양한 알고리즘에 적용하여 이점을 검증했습니다.