AI 기반 의사 결정 과정에서 민감 정보가 유추될 수 있어 개인 정보 유출의 위험이 발생합니다. 본 논문에서는 귀추적 설명을 사용하여 개인 정보 유출을 감사하는 공식적인 프레임워크를 제안합니다. 이 프레임워크는 모델 결정을 정당화하는 최소한의 충분한 증거를 식별하고 민감 정보가 노출되었는지 여부를 결정합니다. 개인 및 시스템 수준의 유출을 공식화하고, 잠재적 적용 설명(PAE)의 개념을 도입하여 민감한 특징을 가진 개인을 보호할 수 있는 개인을 식별합니다. 이 접근 방식은 엄격한 개인 정보 보호 보장과 함께 인간이 이해할 수 있는 설명을 제공합니다. 독일 신용 데이터 세트에 대한 실험적 평가는 모델 의사 결정 과정에서 민감한 리터럴의 중요성이 개인 정보 유출에 미치는 영향을 보여줍니다. 계산상의 어려움과 단순화된 가설에도 불구하고, 본 연구 결과는 귀추적 추론이 해석 가능한 개인 정보 보호 감사를 가능하게 하여 AI 의사 결정에서 투명성, 모델 해석 가능성 및 개인 정보 보호를 조화시키는 실용적인 방안을 제시합니다.