# Extracting Search Trees from LLM Reasoning Traces Reveals Myopic Planning

### 저자

Sixing Chen, Ji-An Li, Saner Cakir, Sinan Akcali, Kayla Lee, Marcelo G. Mattar

### 💡 개요

본 연구는 대규모 언어 모델(LLM)이 생성하는 연쇄 사고(CoT) 추론에서 미래 결과에 대한 심사숙고가 실제 계획인지, 어떻게 구성되는지, 그리고 성능에 어떤 영향을 미치는지 탐구합니다. 이를 위해 '넷마블' 보드게임의 추론 흔적에서 탐색 트리를 추출하고 정량화하는 새로운 방법을 제시하며, LLM의 탐색이 인간보다 얕고, 성능은 깊이보다는 너비에 의해 예측됨을 발견했습니다. 특히, LLM은 깊은 노드를 확장함에도 불구하고, 실제 행동 결정은 해당 노드를 완전히 무시하는 근시안적인 모델로 가장 잘 설명된다는 점을 밝혔습니다.

### 🔑 시사점 및 한계

- LLM의 의사결정 과정이 인간의 계획과는 다르게, 표면적인 정보에 더 의존하는 근시안적인 특성을 가질 수 있음을 시사합니다.

- LLM의 성능 향상을 위해 탐색 깊이보다는 탐색의 폭을 넓히는 전략이 효과적일 수 있음을 보여줍니다.

- LLM과 인간의 계획 방식 간의 근본적인 차이를 규명함으로써, LLM을 인간의 계획 방식에 맞추기 위한 구체적인 방향을 제시합니다.

- 본 연구에서 제시된 탐색 트리 추출 및 분석 프레임워크는 전략적 도메인 전반에 걸쳐 LLM의 계획 구조를 해석하는 데 일반화될 수 있습니다.

- 본 연구는 특정 보드게임에서의 LLM 계획을 분석했으며, 다른 복잡한 전략적 의사결정 문제로의 일반화 가능성에 대한 추가적인 검증이 필요합니다.

[PDF 보기](https://arxiv.org/pdf/2605.06840)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
