본 논문은 대규모 언어 모델(LLM)의 잠재적 능력을 활성화하는 데 효과적인 방법으로 떠오른 사고연쇄(CoT) 추론을 다룹니다. CoT 추론과 자기 학습은 모두 모델이 생성한 정보를 활용하여 예측 불확실성을 점진적으로 줄이는 것을 핵심 목표로 공유한다는 점에 주목하여, 새로운 CoT 프레임워크를 제안합니다. 이 프레임워크는 (i) 초기 추론 과정을 최적화하는 작업별 프롬프트 모듈과 (ii) 추론 과정을 동적으로 개선하고 과도한 추론 및 연속적인 추론 반복 간의 높은 유사성과 같은 기존 CoT 접근 방식의 한계를 해결하는 적응형 추론 반복 모듈의 두 가지 주요 구성 요소를 통합합니다. 광범위한 실험을 통해 제안된 방법이 성능과 계산 효율성 모두에서 상당한 이점을 달성함을 보여줍니다.
시사점, 한계점
•
시사점:
◦
작업별 프롬프트 모듈과 적응형 추론 반복 모듈을 통합한 새로운 CoT 프레임워크 제시
◦
기존 CoT의 한계점인 과도한 추론 및 연속적인 추론 반복 간의 높은 유사성 문제 해결
◦
성능 및 계산 효율성 향상을 실험적으로 입증
•
한계점:
◦
제안된 프레임워크의 일반성 및 다양한 LLM 및 작업에 대한 적용 가능성에 대한 추가 연구 필요