대규모 언어 모델(LLM)을 활용한 하드웨어 설계 및 검증에 대한 관심이 증가함에 따라, 본 논문은 검증 단계에서 중요한 역할을 하는 효과적인 자극 생성에 초점을 맞춘 프레임워크인 {\it TB or not TB}를 제시한다. 본 프레임워크는 Coverage-Driven Direct Preference Optimization (CD-DPO)을 통해 미세 조정된 LLM을 사용하며, 이를 위해 시뮬레이션 기반 커버리지 메트릭을 사용하여 고품질 및 저품질 테스트벤치를 쌍으로 구성한 PairaNet 데이터셋을 도입했다. 제안된 CD-DPO 방법은 정량적 커버리지 피드백을 최적화 목표에 직접 통합하여 검증 커버리지를 최대화하는 자극 생성을 유도한다. CVDP CID12 벤치마크 실험 결과, {\it TB or not TB}가 기존 오픈 소스 및 상용 baseline보다 우수한 성능을 보이며, 코드 커버리지에서 최대 77.27% 향상을 달성했다.