본 연구는 자동 취약점 패칭의 중요성을 강조하며, 대규모 언어 모델(LLM)이 해당 작업을 자동화하는 데 있어 유망한 가능성을 제시함을 밝힙니다. 특히, 기존 연구가 공개된 취약점에 초점을 맞춘 것과 달리, 본 연구는 실제 취약점과 인공 취약점 모두에 대해 LLM의 패칭 효과를 평가합니다. OpenAI의 GPT 모델, LLaMA, DeepSeek, Mistral과 같은 다양한 LLM을 대상으로 Proof-of-Vulnerability (PoV) 테스트를 통해 소스 코드 패칭 성공 여부를 평가했습니다. 그 결과, LLM이 인공 취약점보다 실제 취약점에 더 효과적으로 대처하며, LLM 간의 중복성 및 상호 보완성(complementarity)의 차이가 큼을 확인했습니다.