본 논문은 대규모 언어 모델(LLM)의 몇 가지 긍정적 및 부정적 예시만을 사용하여 Backus-Naur Form(BNF)으로 문법을 생성하는 능력, 즉 소수 샷 문법 생성 능력을 연구하고 향상시키는 것을 목표로 합니다. 540개의 구조화된 문법 생성 과제로 구성된 새로운 데이터셋을 제시하고, 6가지 평가 지표를 고안하여 8가지의 다양한 LLM을 평가했습니다. 기존 LLM이 문법 생성에서 최적의 성능을 보여주지 못함을 발견하고, 이를 해결하기 위해 LLM 기반 하이브리드 유전 알고리즘인 HyGenar를 제안합니다. HyGenar는 생성된 문법의 구문적 및 의미적 정확성을 LLM 전반에 걸쳐 크게 향상시킵니다.