본 논문은 강화 학습(Reinforcement Learning, RL)에서 고차원 목표 과제 최적화 시 발생하는 차원의 저주 문제를 해결하기 위해 커리큘럼 학습 프레임워크를 인과적 관점에서 연구합니다. 특히, 기존 커리큘럼 학습의 핵심 가정인 불변의 최적 의사결정 규칙이 잠재적 혼란 변수(confounder)가 존재하는 환경에서는 성립하지 않을 수 있음에 주목합니다. 본 논문은 인과적으로 정렬된(causally aligned) 소스 과제를 특징짓는 충분 조건을 그래프 이론을 통해 도출하고, 목표 과제에 대한 정성적 인과적 지식을 바탕으로 인과적으로 정렬된 커리큘럼을 생성하는 효율적인 알고리즘을 개발합니다. 마지막으로, 이산 및 연속적인 혼란 변수를 포함하는 픽셀 관측 기반 과제를 통해 제안된 방법론의 유효성을 검증합니다.