본 논문은 연역적 학습(Abductive Learning, ABL)의 불안정성 문제를 해결하기 위해 커리큘럼 연역적 학습(Curriculum Abductive Learning, C-ABL)을 제안합니다. ABL은 기계 학습과 논리적 추론을 통합하여 입력 데이터로부터 기호 개념 레이블을 예측하고, 도메인 지식을 활용한 연역을 통해 예측 결과를 수정하여 재학습하는 방식입니다. 하지만 연역의 비결정적 특성으로 인해, 특히 지식 기반이 크고 복잡할 경우 학습 과정이 불안정해지고 연역 공간이 과도하게 커지는 문제가 있습니다. C-ABL은 이러한 문제를 해결하기 위해 지식 기반을 여러 개의 하위 기반으로 분할하고, 학습 과정에서 점진적으로 도입하는 방법을 제시합니다. 이를 통해 학습 과정 전반에 걸쳐 연역 공간을 줄이고, 모델이 논리를 단계적이고 부드럽게 통합하도록 합니다. 다양한 실험 결과 C-ABL이 기존 ABL보다 성능이 우수하며, 특히 복잡한 지식 환경에서 학습 안정성, 수렴 속도 및 최종 정확도를 크게 향상시킴을 보여줍니다.