본 논문은 기계 학습 모델의 신뢰성을 높이는 데 필수적인 요소로서, 모델의 연속성(continuity)과 강건성(robustness), 정확성(accuracy) 사이의 관계를 탐구합니다. 기존 연구는 강건성과 정확성이 상충한다는 주장을 제기하지만, 본 논문은 연속적인 가설(hypothesis)이 강건성과 정확성을 동시에 달성하는 데 제약이 있다는 대안적인 주장을 제시합니다. 조화(harmonic) 및 정칙(holomorphic) 가설에 대한 이론적 틀을 제시하고, 실증적 증거를 통해 불연속적인 가설이 특정 기계 학습 과제에서 연속적인 가설보다 더 나은 성능을 보임을 보여줍니다. 실용적인 측면에서는 강건하고 정확한 학습 규칙이 도메인의 서로 다른 영역에 대해 서로 다른 연속 가설을 학습해야 함을 시사하며, 이론적인 측면에서는 적대적 예제 현상을 함수열의 연속성과 불연속 함수로의 균일 수렴 간의 상충으로 설명합니다. 현대 기계 학습 모델의 대부분이 연속 함수이므로, 강건하고 정확한 분류기의 연속성에 대한 이론적 연구가 모델의 구성, 분석 및 평가에 중요하다고 주장합니다.