본 논문은 안전하고 신뢰할 수 있는 의사결정 언어 에이전트를 위해 언제 답변하거나 거절해야 하는지를 아는 것이 중요하다는 점을 다룹니다. 기존 연구에서 LM의 신뢰성을 높이기 위한 거절 전략이 소개되었지만, 이러한 모델이 위험 수준에 따라 의사결정을 어떻게 적응하는지는 아직 충분히 탐구되지 않았습니다. 본 논문은 위험 인식 의사결정 작업을 공식화하고, 기존 LM의 중요한 약점을 드러내고, 이를 완화하기 위한 기술 분해 솔루션을 제안합니다. 연구 결과에 따르면, 최첨단 LM(일반 모델과 추론 모델 모두)은 작업을 효과적으로 처리하기 위해 명시적인 프롬프트 체이닝이 여전히 필요하다는 것을 보여주며, 진정으로 자율적인 의사결정 에이전트를 달성하기 위해 극복해야 할 과제를 드러냅니다.