본 논문은 딥러닝과 통계적 추론에서 변분 간극(variational gap), 즉 모델 증거(로그 우도)와 증거 하한(ELBO) 사이의 차이로 인해 발생하는 여러 중요한 문제들을 다룹니다. 특히, ELBO 비용 함수를 통해 훈련되는 고전적인 VAE 설정에서는 데이터의 로그 우도(하한만 알 뿐)를 알 수 없기 때문에 모델 간 훈련 효과를 견고하게 비교하기 어렵습니다. 이 문제를 해결하기 위해 본 논문에서는 데이터의 증거를 효율적으로 근사할 수 있는 일반적이고 효과적인 상한을 제시합니다. 제시된 방법에 대한 광범위한 이론적 및 실험적 연구와 기존 최첨단 상한과의 비교, 그리고 다양한 하한에서 훈련된 모델 평가 도구로서의 적용을 포함합니다.