본 논문은 머신러닝 연구의 재현성과 책임성 향상이라는 두 가지 목표를 다루며, 이 두 목표가 과학적 추론에 기반한 재현성과 윤리적 추론에 기반한 책임성이라는 서로 다른 맥락에서 논의되는 점을 지적합니다. 특히 머신러닝 과학자들이 응용 현장과 멀리 떨어져 있어 책임을 묻기 어려운 '책임의 공백(Responsibility Gap)' 문제를 해결하기 위해, 모델 성능 재현성이 아닌 주장 재현성(claim replicability) 개념을 제시합니다. 주장 재현성은 머신러닝 과학자들이 오용 및 오해로 인한 피해를 유발할 수 있는 비재현적인 주장을 만들었을 때 책임을 묻는 데 유용하다고 주장하며, 이를 위해 두 가지 유형의 재현성을 정의하고, 주장 재현성의 장점을 제시합니다. 또한, 주장 재현성의 구현을 기술적 과제가 아닌 사회적 프로젝트로 규정하고, 경쟁적인 인식론적 원칙, 순환적 참조(Circulating Reference), 해석적 노동(Interpretative Labor), 연구 의사소통에 대한 실질적 영향 등을 논의합니다.