Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Rethinking Chain-of-Thought from the Perspective of Self-Training

Created by
  • Haebom

저자

Zongqian Wu, Baoduo Xu, Ruochen Cui, Mengmeng Zhan, Xiaofeng Zhu, Lei Feng

개요

본 논문은 대규모 언어 모델(LLM)의 잠재적 능력을 활성화하는 데 효과적인 방법으로 떠오른 사고연쇄(CoT) 추론을 다룹니다. CoT 추론과 자기 학습은 모두 모델이 생성한 정보를 활용하여 예측 불확실성을 점진적으로 줄이는 것을 핵심 목표로 공유한다는 점에 주목하여, 새로운 CoT 프레임워크를 제안합니다. 이 프레임워크는 (i) 초기 추론 과정을 최적화하는 작업별 프롬프트 모듈과 (ii) 추론 과정을 동적으로 개선하고 과도한 추론 및 연속적인 추론 반복 간의 높은 유사성과 같은 기존 CoT 접근 방식의 한계를 해결하는 적응형 추론 반복 모듈의 두 가지 주요 구성 요소를 통합합니다. 광범위한 실험을 통해 제안된 방법이 성능과 계산 효율성 모두에서 상당한 이점을 달성함을 보여줍니다.

시사점, 한계점

시사점:
작업별 프롬프트 모듈과 적응형 추론 반복 모듈을 통합한 새로운 CoT 프레임워크 제시
기존 CoT의 한계점인 과도한 추론 및 연속적인 추론 반복 간의 높은 유사성 문제 해결
성능 및 계산 효율성 향상을 실험적으로 입증
한계점:
제안된 프레임워크의 일반성 및 다양한 LLM 및 작업에 대한 적용 가능성에 대한 추가 연구 필요
특정 작업에 대한 프롬프트 모듈 최적화의 일반화 가능성에 대한 추가 연구 필요
적응형 추론 반복 모듈의 매개변수 조정에 대한 추가 연구 필요
👍