본 논문은 베이지안 신경망(BNN)의 한 종류인 잠재 이진 베이지안 신경망(LBBNN)을 개선하여 입력 변수가 임의의 후속 계층으로 건너뛸 수 있거나 제외될 수 있도록 함으로써 네트워크를 단순화하고 예측에 대한 입력 변수의 영향을 명확히 하는 방법을 제시합니다. 이를 통해 특정 문제에 대해서는 선형 모델이나 상수 모델이 최적일 수 있음을 보여줍니다. 입력 건너뛰기 LBBNN 접근 방식은 표준 LBBNN에 비해 네트워크 밀도를 크게 줄여(소규모 네트워크의 경우 99% 이상, 대규모 네트워크의 경우 99.9% 이상), 높은 예측 정확도와 불확실성 측정을 유지하면서 네트워크를 압축합니다. MNIST 데이터셋에서 935개의 가중치만으로 97%의 정확도와 우수한 보정을 달성하여 신경망 압축 분야의 최첨단 성능을 보였습니다. 또한, 제안된 방법은 실제 공변량을 정확하게 식별하고 시스템 비선형성을 조정합니다. 주요 기여는 이론적 보장을 가지고 사후적으로 외부 도구를 필요로 하지 않는, LBBNN 프레임워크 내에서 직접 설계된 전역 및 지역 설명을 향상시키는 능동 경로(active paths)의 도입입니다.