대규모 언어 모델(LLM) 에이전트의 추론 및 의사 결정 능력 향상에도 불구하고, 풍부한 추론은 종종 긴 사고 사슬(CoT)로 이어져 실제 시나리오에서의 상호 작용 효율성을 저해합니다. 본 논문에서는 LLM 에이전트 효율성에 대한 체계적인 정의가 부족하다는 점을 지적하고, (i) 단계별 효율성(단계별 토큰 최소화)과 (ii) 궤적별 효율성(작업 완료에 필요한 단계 수 최소화)으로 구성된 이중 효율성을 제안합니다. 이 정의를 기반으로, DEPO라는 이중 효율성 선호도 최적화 방법을 제안하며, 이는 간결한 응답과 적은 단계 수를 공동으로 보상합니다. WebShop 및 BabyAI 실험에서 DEPO는 토큰 사용량을 최대 60.9%, 단계 수를 최대 26.9%까지 줄이는 동시에 성능을 최대 29.3% 향상시켰습니다. 또한 DEPO는 3개의 out-of-domain 수학 벤치마크에도 일반화되며, 데이터의 25%만으로 학습했을 때도 효율성 이점을 유지합니다.