Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

DICE: Structured Reasoning in LLMs through SLM-Guided Chain-of-Thought Correction

Created by
  • Haebom

저자

Yiqi Li, Yusheng Liao, Zhe Chen, Yanfeng Wang, Yu Wang

개요

사용자 요구사항(엄격한 출력 형식 등)을 충족해야 하는 추론 작업을 수행할 때, 대규모 언어 모델(LLM)은 종종 상세한 지침 준수보다 추론을 우선시합니다. 이를 해결하기 위해, DICE라는 경량 프레임워크를 제안합니다. DICE는 소규모 언어 모델(SLM)을 활용하여 Chain-of-Thought(CoT) 수정을 통해 LLM의 출력을 개선합니다. DICE는 LLM이 자연어 응답을 생성하도록 프롬프트한 다음, 훈련된 SLM을 사용하여 구조화된 출력 사양을 충족하도록 이러한 출력을 분석하고 개선함으로써 프로세스를 분리합니다. 이 프레임워크는 LLM의 광범위한 지식과 추론 능력을 유지하면서 출력물이 사용자 요구 사항을 준수하도록 보장합니다. DICE는 2단계 방법을 통해 구조화된 CoT 적응 데이터 세트를 구축하고, 분석 후 답변 패턴으로 구조화된 출력을 생성하기 위해 이중 튜닝 전략을 적용하여 SLM을 미세 조정합니다. 실험 결과 DICE는 LLM 출력의 평균 형식 정확도와 내용 정확도를 각각 35.4% 및 29.4% 향상시켜 다른 경쟁 기준선보다 SOTA 성능을 달성했습니다.

시사점, 한계점

시사점:
LLM의 광범위한 지식과 추론 능력을 유지하면서, 사용자의 구조화된 출력 요구사항을 충족할 수 있는 경량 프레임워크 제시.
SLM을 활용하여 LLM의 출력을 개선하는 효율적인 방법론 제시.
실험을 통해 DICE가 다른 경쟁 기준선보다 우수한 성능을 보임을 입증.
한계점:
논문에서 구체적인 한계점에 대한 언급은 없음.
👍