본 논문은 대규모 언어 모델(LLM)의 몇 가지 예시만을 사용한 문법 생성 능력을 연구하고 개선하는 것을 목표로 합니다. Backus-Naur Form(BNF)으로 표현되는 문법을, 적은 수의 긍정적/부정적 예시로부터 추론하고 생성하는 능력을 평가하기 위해 540개의 구조화된 문법 생성 과제로 구성된 새로운 데이터셋을 제시하고, 6가지 평가 지표와 8가지 LLM을 사용하여 실험을 진행했습니다. 기존 LLM들이 문법 생성에서 최적의 성능을 보이지 않음을 확인하고, 이를 해결하기 위해 LLM 기반 하이브리드 유전 알고리즘인 HyGenar를 제안하여 문법 생성의 구문적 및 의미적 정확성을 크게 향상시켰습니다.