# When Thoughts Meet Facts: Reusable Reasoning for Long-Context LMs

### 저자

Soyeong Jeong, Taehee Jung, Sung Ju Hwang, Joo-Kyung Kim, Dongyeop Kang

### 💡 개요

본 연구는 방대한 양의 정보 처리가 가능한 장문 맥락 언어 모델(LCLM)에서 정보 연결의 어려움을 해결하고자 합니다. 이를 위해 재사용 가능한 사고 캐시로 추론을 재구성하는 '사고 템플릿'을 제안하며, 이는 과거 문제 해결 기록에서 파생되어 증거 결합 방식을 구조화하고 사실 기반 다단계 추론을 안내합니다. 제안된 학습 데이터 기반 템플릿의 반복적인 자연어 피드백을 통한 개선 전략은 다양한 벤치마크 및 LCLM에서 일관된 성능 향상을 보여주었습니다.

### 🔑 시사점 및 한계

- 복잡한 장문 맥락에서 효율적이고 구조화된 다단계 추론을 가능하게 합니다.

- 자연어 피드백을 통한 사고 템플릿의 지속적인 개선은 모델의 추론 능력을 향상시킬 수 있습니다.

- 최적화된 템플릿을 소형 모델로 압축하여 투명하고 재사용 가능한 추론을 확장할 수 있습니다.

- 현재 제시된 사고 템플릿의 설계 및 개선 과정이 특정 도메인이나 문제 유형에 따라 더 많은 최적화가 필요할 수 있습니다.

[PDF 보기](https://arxiv.org/pdf/2510.07499)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
