본 연구는 대규모 언어 모델(LLM)을 이용한 단위 테스트 자동 생성의 잠재력을 평가한 연구입니다. 코드와 요구사항을 통합하는 최적화된 프롬프트를 개발하여 동등 분할 및 경계값과 같은 중요한 사례를 다루었으며, 수동 테스트와 LLM을 이용한 자동 생성 테스트를 정량적 지표 및 수동적 질적 분석을 통해 비교하였습니다. LLM의 효과는 잘 설계된 프롬프트, 강력한 구현 및 정확한 요구사항에 달려있음을 보였으며, LLM은 유연하고 유망하지만 여전히 인간의 감독이 필요함을 강조하였습니다. 단위 테스트 평가에서 자동화에 대한 필수적인 보완으로서 수동적 질적 분석의 중요성을 강조하고 있습니다.