본 논문은 사전 훈련된 거대 언어 모델(LLM)에 확산 프레임워크를 통해 테스트 시점 연산 능력을 확장할 수 있는 새로운 미세 조정 방법을 제안합니다. 확산 단계 수를 늘림으로써 미세 조정된 모델이 단조적으로 정확도가 향상되어 다운스트림 작업의 성능이 향상됨을 보여줍니다. 또한, 강력한 안내 기술을 통합하여 특정 주제에 대한 질문에 전문적으로 답변하고, 적응형 ODE 솔버를 활용하여 특정 문제에 필요한 연산량을 자율적으로 결정할 수 있습니다. 이 방법은 교차 엔트로피 손실로 사전 훈련된 모든 기본 모델에 보편적으로 적용 가능하며, 원래 가중치를 수정하지 않아 강력한 단일 단계 생성 기능을 완전히 유지합니다. 본 논문은 제안된 방법이 기존 미세 조정 방법보다 효과적이며 완전히 호환 가능하며, 자기 회귀 및 확산 프레임워크의 강점을 통합하는 직교적인 새로운 방향을 제시함을 보여줍니다.