본 논문은 위험 매개변수 β≠0을 갖는 재귀적 엔트로피 위험 선호를 가진 에이전트가 존재하는 할인 마르코프 의사결정 과정(MDP)에서 최적 상태-행동 값 함수 Q와 최적 정책 π를 학습하는 샘플 복잡도를 분석합니다. MDP의 생성 모델을 사용할 수 있다는 가정하에, 모델 기반 위험 감수적 Q-값 반복(MB-RS-QVI)이라는 간단한 모델 기반 접근 방식을 제시하고 분석합니다. 이 방법은 k번의 반복 후 MB-RS-QVI의 출력인 Qk와 Qk에 대한 탐욕적 정책인 πk에 대해 ||Q*-Qk||과 ||V*-Vπk||에 대한 (ε,δ)-PAC 경계를 제공합니다. 두 PAC 경계 모두 유효 지평선 1/(1-γ)에 대해 지수적 의존성을 가지며, 이 의존성의 강도는 학습자의 위험 감수성 |β|와 함께 증가합니다. 또한, |β|/(1-γ)에 대한 지수적 의존성이 두 경우 모두 불가피함을 보여주는 두 가지 하한선을 제시합니다. 하한선은 Q-학습에 대한 PAC 경계가 행동의 수 A에 대해, 정책 학습에 대한 PAC 경계가 A에 대해 거의 타이트함을 보여줍니다.