본 논문은 구조화된 데이터를 대상으로 하는 그레이박스 퍼징의 성능 향상을 위해 대규모 언어 모델(LLM)을 활용하는 방법을 제시합니다. LLM의 데이터 변환 및 형식에 대한 사전 지식을 활용하여 새로운 유효 입력을 생성하고, 페어링된 변이 시드를 통해 구조화된 형식과 변이 전략을 학습하도록 미세 조정합니다. 제안하는 LLM 기반 퍼저인 LLAMAFUZZ는 Magma 벤치마크와 다양한 실제 프로그램을 대상으로 실험을 수행하여 기존 퍼저 대비 우수한 성능을 보였으며, 코드 커버리지 향상 사례를 제시합니다.