본 논문은 대규모 언어 모델(LLM)의 추론 효율성을 향상시키기 위해 훈련이 필요 없는 입력 중심 접근 방식을 제안한다. 기존의 효율성 연구가 모델 자체에 집중하는 것과 달리, 논문은 인지 심리학에서 영감을 얻어 "Focused Chain-of-Thought (F-CoT)"를 도입한다. F-CoT는 질문에서 핵심 정보를 추출하여 구조화된 컨텍스트를 구성하고, 모델이 이 컨텍스트만을 기반으로 추론하도록 유도한다. 이는 불필요한 정보에 대한 주의를 차단하여 더 짧은 추론 경로를 생성한다. 산술 문제에 대한 실험 결과, F-CoT는 기존의 zero-shot CoT와 유사한 정확도를 유지하면서 생성된 토큰 수를 2-3배 줄였다.