본 논문은 대규모 언어 모델(LLM)의 체계적 일반화 능력의 한계를 다루고 있다. LLM은 다양한 영역에서 발전을 이루었지만, 새로운 조합 상황으로 지식을 확장하는 데 어려움을 보인다. 본 연구는 조합성을 위한 메타러닝 접근 방식을 추상적 공간 추론 영역으로 확장하여 이 문제를 해결하고자 한다. 이를 위해, 2차원 물체의 기하학적 변환(이동, 회전 등)과 그 조합에 대한 모델의 체계적 일반화 능력을 평가하기 위한 새로운 데이터셋인 SYGAR를 제시한다. 실험 결과, 조합성을 위한 메타러닝으로 훈련된 트랜스포머 기반 인코더-디코더 모델이 기존 최첨단 LLM(o3-mini, GPT-4o, Gemini 2.0 Flash)보다 훨씬 우수한 체계적 일반화 능력을 보이는 것을 확인했다. 이는 메타러닝이 언어 관련 작업을 넘어 체계성을 향상시키는 데 효과적임을 보여주는 결과이다.