Thinker: Training LLMs in Hierarchical Thinking for Deep Search via Multi-Turn Interaction
Created by
Haebom
Category
Empty
저자
Jun Xu, Xinkai Du, Yu Ao, Peilong Zhao, Yang Li, Ling Zhong, Lin Yuan, Zhongpu Bo, Xiaorui Wang, Mengshu Sun, Zhengke Gui, Dalong Zhang, Zhaoyang Wang, Qiwei Wang, Yangyang Hou, Zhiying Yin, Haofen Wang, Huajun Chen, Lei Liang, Jun Zhou
개요
LLM의 추론 능력 향상을 위해 외부 지식 기반 및 웹 페이지 검색의 효율성이 중요하며, 이를 위해 Thinker라는 계층적 사고 모델을 제안한다. Thinker는 복잡한 문제를 독립적으로 해결 가능한 하위 문제로 분해하고, 각 하위 문제를 자연어와 논리 함수로 이중 표현하여 지식 기반 및 웹 검색을 지원한다. 또한, 불필요한 외부 검색을 피하기 위해 지식 경계 결정을 수행한다. 소수의 학습 샘플로도 기존 방법들과 경쟁력 있는 성능을 보이며, 전체 학습 데이터셋에서는 성능을 크게 향상시킨다.
시사점, 한계점
•
시사점:
◦
LLM의 추론 과정에 대한 감독 및 검증 가능성 확보.
◦
복잡한 문제의 논리적 일관성을 향상시키는 하위 문제 분해 전략 활용.
◦
불필요한 외부 검색을 줄여 효율성을 높이는 지식 경계 결정.
◦
소량의 데이터로도 유의미한 성능을 보이며, 확장 가능성 입증.
•
한계점:
◦
논문에 구체적인 한계점에 대한 언급은 없음. (단, 추가 연구 및 개선의 여지가 있을 수 있음)