본 논문은 디코더 전용 대규모 언어 모델(LLM)의 파인튜닝을 통해 추상 의미 표현(AMR) 파싱을 수행하는 새로운 접근 방식을 제시합니다. Phi 3.5, Gemma 2, LLaMA 3.2, DeepSeek R1 LLaMA Distilled 네 가지 LLM 아키텍처를 LDC2020T02 Gold AMR3.0 테스트 세트를 사용하여 평가한 결과, 디코더 전용 LLM의 단순한 파인튜닝만으로도 기존 최첨단(SOTA) AMR 파서와 비교할 만한 성능을 달성할 수 있음을 보여줍니다. 특히, LLaMA 3.2는 단순한 파인튜닝 방식으로 SOTA AMR 파서와 경쟁력 있는 성능을 보였으며, 전체 LDC2020T02 테스트 세트에서 SMATCH F1 0.804를 달성하여 APT + Silver (IBM)과 동일한 성능을 보였습니다. LLaMA 3.2는 의미론적 성능에서, Phi 3.5는 구조적 타당성에서 우수한 성능을 보이는 경향을 확인했습니다.