본 논문은 제한된 자원이나 실패 가능성 하에서 작동하는 에이전트 기반의 고급 추론 모델을 다룬다. 이러한 모델은 인간과 상호 작용하고, (근사적인) 효용 함수와 내부 모델 하에서 순차적 의사결정 문제를 해결한다. 자원 고갈로 인해 행동 순서가 강제로 종료될 수 있는 자원 제약이나 실패 제약이 있는 문제에서, 에이전트는 효용 중심의 합리적인 행동을 재구성하는 암묵적인 절충에 직면한다. 또한, 이러한 에이전트는 일반적으로 인간의 의뢰를 받아 행동하기 때문에, 제약 노출의 비대칭성으로 인해 인간의 목표와 에이전트의 인센티브 간의 예상치 못한 불일치가 발생할 수 있다. 본 논문은 생존 밴딧 프레임워크를 통해 이러한 설정을 공식화하고, 생존 중심 선호도 변화의 영향을 정량화하는 이론적 및 실험적 결과를 제공하며, 불일치가 발생하는 조건을 식별하고, 위험 추구 또는 위험 회피 행동의 발생을 완화하기 위한 메커니즘을 제안한다. 결과적으로, 본 연구는 이러한 생존 압력 하에서 작동하는 AI 에이전트의 출현 행동에 대한 이해와 해석력을 높이고, 중요한 자원 제한 환경에서 이러한 AI 시스템을 안전하게 배포하기 위한 지침을 제공하는 것을 목표로 한다.