대규모 언어 모델(LLM) 기반의 그래프 추론기는 유망하지만, 그래프 표현의 대칭성에 대한 내재적 불변성을 갖지 못합니다. 순차적 그래프 직렬화에 의존하여 작동하기 때문에, LLM은 노드 재인덱싱, 엣지 재정렬 또는 서식 변경에 따라 다른 출력을 생성하여 견고성 문제를 야기합니다. 본 논문에서는 이러한 효과를 체계적으로 분석하고, 미세 조정이 인코딩 민감도와 미지의 작업에 대한 일반화에 미치는 영향을 연구합니다. 또한, 그래프 직렬화를 노드 레이블링, 엣지 인코딩 및 구문으로 분해하고, 포괄적인 벤치마킹 도구에서 이러한 각 요인의 변동에 대한 LLM의 강건성을 평가합니다. 미세 조정된 추론기의 일반화 능력을 더욱 평가하기 위해 새로운 스펙트럼 작업 세트를 제공합니다.