Self-Correction Distillation for Structured Data Question Answering
Created by
Haebom
Category
Empty
저자
Yushan Zhu, Wen Zhang, Long Jin, Mengshu Sun, Ling Zhong, Zhiqiang Liu, Juan Li, Lei Liang, Chong Long, Chao Deng, Junlan Feng
개요
본 논문은 구조화된 데이터 질의응답(QA) 능력을 향상시키기 위해, 특히 소규모 언어 모델(LLM)에 초점을 맞춘 연구를 제시한다. 대규모 LLM의 능력을 소규모 LLM으로 이전하기 위해 자체 수정 증류(SCD) 방법을 제안한다. SCD는 오류 감지를 위한 오류 프롬프트 메커니즘(EPM)과 2단계 증류 전략을 활용하여 소규모 LLM의 구조화된 질의 생성 및 오류 수정 능력을 향상시킨다. 실험 결과, 제안된 SCD 방법이 다양한 벤치마크에서 소규모 LLM의 성능을 다른 증류 방법보다 향상시키고, 일부 데이터셋에서는 GPT4의 성능에 근접함을 보였다.