본 논문은 AI 시스템의 외부 평가가 잠재적 위험을 이해하는 데 중요하지만, 평가자의 시스템 접근 필요성과 AI 개발자의 개인정보 및 보안 우려 사이의 균형을 맞추는 데 어려움이 있다는 점을 지적합니다. 또한 평가자는 예를 들어 보유한 테스트 세트의 무결성을 유지하기 위해 자신의 개인 정보를 보호해야 할 이유가 있습니다. 논문에서는 개발자와 평가자 모두의 개인 정보를 보호하는 문제를 상호 개인 정보 보호 문제로 정의하고, 이 문제 해결이 AI 시스템의 효과적인 외부 평가에 필수적이며, 현재 방법은 특히 평가자의 개인 정보 보호 측면에서 이 문제를 충분히 해결하지 못한다고 주장합니다. 이를 위해 상호 개인 정보 보호 문제를 공식화하고, 모델 소유자와 평가자 모두의 개인 정보 및 접근 요구 사항을 조사하며, 암호화 및 하드웨어 기반 접근 방식을 포함한 잠재적인 해결책을 탐구합니다.