본 논문은 기계 학습 모델에 대한 멤버십 추론 공격(MIA)의 근본적인 통계적 한계를 탐구하여 이론적 보장을 제공합니다. 비선형 회귀 설정에서 과적합 학습 절차를 사용하는 경우 공격 성공 확률이 높다는 것을 이론적으로 증명하고, 관심 대상 수량에 대한 경계를 제공하는 여러 상황을 조사합니다. 특히, 데이터 이산화가 학습 절차의 보안을 향상시킬 수 있으며, 기저 데이터 분포의 다양성에 의해 제한됨을 보여줍니다. 간단한 시뮬레이션을 통해 결과를 보여줍니다.