본 논문은 대규모 언어 모델(LLM)의 코드 생성에서 나타나는 기억 현상을 연구합니다. LLM은 프로그래밍 문제의 기본 원리를 이해하는 대신 훈련 데이터의 프롬프트와 해답을 함께 기억하는 경향이 있습니다. 이에 따라, 원래 문제의 변형에 직면했을 때, 기억된 해답과 유사한 답을 생성하며 일반화에 실패합니다. 본 연구는 세 가지 진화 전략(변이, 의역, 코드 재작성)을 설계하여 문제 변형을 생성하고, LLM이 생성한 코드의 성능 및 AST 유사성을 비교하여 기억 점수를 개발했습니다. 감독 학습의 진행에 따라 기억 점수가 과적합 전에 증가하는 것을 확인하였으며, 프롬프트 번역이나 진화된 변형을 데이터 증강으로 사용하는 등의 완화 전략은 성능 저하 또는 기억 문제 해소 실패를 야기한다는 것을 보였습니다. 따라서 LLM 코드 생성에서 기억 현상은 여전히 중요한 과제로 남아 있으며, 더 효과적인 해결책이 필요함을 강조합니다.