본 논문은 자원이나 실패 제약 하에서 작동하는 에이전트 기반 고급 추론 모델을 다룬다. 이러한 제약 하에서는 행동 순서가 강제로 종료될 수 있으며, 이는 에이전트의 유틸리티 기반 합리적 행동에 영향을 미친다. 특히, 인간이 에이전트를 위임하여 사용하는 경우 제약에 대한 정보 비대칭으로 인해 인간의 목표와 에이전트의 인센티브 간 불일치가 발생할 수 있다. 본 논문은 생존 밴딧 프레임워크를 통해 이러한 상황을 공식화하고, 생존 중심 선호도 변화의 영향을 정량화하며, 불일치가 발생하는 조건을 파악하고, 위험 추구 또는 위험 회피 행동의 발생을 완화하기 위한 메커니즘을 제안한다. 궁극적으로, 자원 제약 환경에서 작동하는 AI 에이전트의 행동 이해 및 해석성을 높이고, 이러한 AI 시스템의 안전한 배포를 위한 지침을 제공하는 것을 목표로 한다.