Sign In

DTS: Enhancing Large Reasoning Models via Decoding Tree Sketching

Created by
  • Haebom
Category
Empty

저자

Zicheng Xu, Guanchu Wang, Yu-Neng Chuang, Guangyao Zheng, Alexander S. Szalay, Zirui Liu, Vladimir Braverman

개요

본 논문은 대규모 추론 모델(LRMs)의 과도한 사고로 인한 추론 비용 증가 및 정확도 저하 문제를 해결하기 위해, 짧고 정확한 추론 경로를 선택하는 새로운 디코딩 프레임워크 DTS를 제안합니다. DTS는 고유의 엔트로피를 기반으로 추론 공간을 선택적으로 분기하고 조기 종료를 적용하여 최단 경로를 선택함으로써 효율성과 정확도를 향상시킵니다. DeepSeek-R1-Distill-Qwen-7B 및 1.5B 모델을 사용하여 AIME2024 및 AIME2025 데이터 세트에서 실험한 결과, DTS는 정확도를 최대 8% 향상시키고, 평균 추론 길이를 23% 감소시키며, 반복 빈도를 12% 줄이는 효과를 보였습니다.

시사점, 한계점

시사점:
LRMs의 추론 효율성과 정확도를 동시에 개선하는 모델-아гности컬(model-agnostic) 디코딩 프레임워크 제시.
추론 길이와 정확도 간의 반비례 관계를 분석하여 짧은 추론 경로의 중요성 강조.
추가적인 학습이나 감독 없이 성능 향상을 달성.
AIME 데이터셋에서 괄목할 만한 성능 향상 (정확도 최대 8% 증가).
한계점:
과도한 사고 현상을 완화하지만, LRM의 근본적인 문제점 해결에는 한계가 있을 수 있음.
특정 데이터셋 (AIME2024, AIME2025)에 대한 실험 결과만 제시되어 일반화의 한계 존재.
다른 모델 및 데이터셋에 대한 DTS의 일반적인 성능 검증 필요.
고유 엔트로피 기반 분기 및 조기 종료 전략의 구체적인 구현 방식 및 최적화에 대한 추가적인 연구 필요.
👍