Diffusion Language Models Know the Answer Before Decoding
Created by
Haebom
저자
Pengxiang Li, Yefan Zhou, Dilxat Muhtar, Lu Yin, Shilin Yan, Li Shen, Yi Liang, Soroush Vosoughi, Shiwei Liu
개요
Diffusion 언어 모델(DLM)은 병렬 시퀀스 생성 및 유연한 토큰 순서를 제공하지만, 양방향 어텐션의 비용과 고품질 출력을 위한 많은 정제 단계로 인해 추론 속도가 자가 회귀 모델보다 느리다. 본 연구에서는 DLM의 조기 응답 수렴 특성을 활용하여, 최종 디코딩 단계의 절반 단계에서 정답을 내부적으로 식별할 수 있음을 발견했다. 이를 바탕으로, Prophet을 도입하여 훈련 없이 조기 커밋 디코딩을 가능하게 한다. Prophet은 상위 2개 예측 후보 간의 신뢰도 차이를 기준으로 정제 계속 여부를 동적으로 결정한다. LLaDA-8B 및 Dream-7B에 대한 실험 결과, Prophet은 디코딩 단계를 최대 3.4배 줄이면서 높은 생성 품질을 유지했다.
시사점, 한계점
•
DLM 추론 속도를 향상시키는 새로운 접근 방식 제시: 조기 응답 수렴 특성을 활용한 Prophet.