본 논문은 대규모 언어 모델(LLM)의 계획 능력 향상을 위한 새로운 방법을 제시합니다. 기존의 chain-of-thought 프롬프팅, 파인튜닝, 명시적 추론 등의 방법은 복잡한 계획 문제에 대한 일반화 능력이 부족하고 오류를 범하는 경우가 많았습니다. 본 논문에서는 LLM을 이용하여 도메인 의존적인 휴리스틱 함수를 Python 코드 형태로 생성하고, 그리디 베스트-퍼스트 탐색을 통해 평가하여 최적의 휴리스틱 함수를 선택하는 방법을 제안합니다. 실험 결과, 제안된 방법은 기존의 도메인 독립적인 휴리스틱 함수 기반 방법들보다 훨씬 더 많은 unseen test tasks를 해결했으며, 도메인 의존적인 최고 성능의 학습 알고리즘과도 경쟁력 있는 결과를 보였습니다. 특히, 비최적화된 Python 플래너를 사용했음에도 불구하고, 최적화된 C++ 코드 기반의 기존 방법들과 비교하여 더 적은 상태 확장을 통해 문제를 해결한 경우도 있었습니다. 이는 LLM이 생성한 휴리스틱 함수가 계산 효율성이 높을 뿐만 아니라, 기존 최고 성능의 휴리스틱 함수보다 더 정보적일 수 있음을 시사합니다. 결론적으로, 본 논문은 LLM을 이용하여 계획 휴리스틱 함수 프로그램을 생성하는 것이 LLM의 계획 능력을 크게 향상시킬 수 있음을 보여줍니다.