본 논문은 대규모 언어 모델(LLM)이 복합적인 지시사항을 따르는 데 어려움을 겪는 문제를 해결하기 위해, 지시사항을 의사 코드로 표현하여 LLM을 미세 조정하는 방법을 제안합니다. 의사 코드를 사용하여 지시사항을 재표현한 데이터로 LLM을 미세 조정함으로써, 모델이 지시사항을 더 잘 따르도록 합니다. 11개의 공개 벤치마크를 사용하여 5개의 다른 모델에 대한 실험을 수행한 결과, 의사 코드를 사용하여 훈련된 모델은 지시사항을 더 잘 따르는 동시에 수학적 추론 및 상식적 추론과 같은 다른 작업에 대한 성능도 유지하는 것을 확인했습니다. 지시사항 따르기 벤치마크에서 3~19%의 상대적 성능 향상을, 모든 작업에 걸쳐 평균 14%의 성능 향상을 관찰했습니다.