본 논문은 알고리즘 설계에 특화된 대규모 언어 모델(LLM)의 효용성을 탐구합니다. 기존 연구들이 일반적인 코딩 작업에 훈련된 LLM을 알고리즘 설계에 활용하는 반면, 본 논문은 알고리즘 설계에 특화된 LLM의 미세 조정을 통해 성능 향상을 도모합니다. 다양성을 고려한 순위 기반(DAR) 샘플링 전략과 직접적 선호도 최적화를 활용하여 LLM의 출력을 효율적으로 작업 목표에 맞춥니다. Llama-3.2-1B-Instruct와 Llama-3.1-8B-Instruct 모델을 세 가지 알고리즘 설계 과제에 적용한 실험 결과, 미세 조정된 LLM이 기존 LLM보다 성능이 뛰어나거나 동등한 수준임을 보여줍니다. 특히, 작은 모델인 Llama-3.2-1B-Instruct에서 성능 향상이 두드러졌으며, 특정 알고리즘 설계 과제에 미세 조정된 LLM은 관련 과제에서도 성능 향상을 보여 일반화 가능성을 시사합니다.