본 논문은 대규모 언어 모델(LLM)을 이용한 대수적 단어 문제(AWP) 해결을 다룹니다. 기존의 Chain-of-Thought 기법은 단계별 추론을 통해 성과를 거두었지만, LLM 자체의 계산 오류로 인한 정확도 저하 문제가 존재합니다. 이를 해결하기 위해, 본 논문에서는 방정식과 코드 생성을 분리하는 Program of Equations Thoughts (POET) 기법을 제안합니다. POET는 복잡한 계산을 Python 인터프리터에 위임하여 LLM의 계산 오류를 방지합니다. 또한, 수동으로 설계된 템플릿을 활용하여 단일 단계 문제 해결을 위한 Python 코드를 직접 생성하는 Zero-shot POET를 제안합니다. 제안된 방법은 PEN 및 ALG514 데이터셋에서 각각 95.3%와 98.0%의 정확도를 달성하여 최첨단 성능(SOTA)을 기록했으며, DRAW-1K 데이터셋에서도 95.5%의 SOTA 결과를 달성했습니다.