본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 목표로 한다. LLM은 복잡한 논리 문제, 특히 다수의 전제와 다단계 추론을 요구하는 문제에서 어려움을 겪는데, 이는 무질서하고 산만한 정보에 취약하기 때문이다. 본 논문은 정보 흐름의 관점에서 LLM의 추론 메커니즘을 분석하여, LLM이 인간과 유사한 인지적 편향을 가지고 무질서하고 무관한 정보를 처리하는 데 어려움을 겪는다는 것을 밝혔다. 이에 따라, 핵심 정보를 식별하고 중복 정보를 제거하여 LLM에 더 체계적인 형태로 프롬프트를 제공하는 새로운 추론 방법인 COP(Concise and Organized Perception)를 제안한다. COP는 여러 논리 및 수학 벤치마크(ProofWriter, PrOntoQA, PrOntoQA-OOD, FOLIO, DI-GSM)에서 기존 최첨단 방법보다 성능이 뛰어남을 실험적으로 입증한다.