본 논문은 머신러닝(ML) 시스템의 성능 저하를 야기하는 데이터셋 변화 문제와 이를 해결하기 위한 모델 업데이트의 영향에 대해 다룹니다. 특히, 모델 업데이트 과정에서 발생하는 '업데이트 불투명성(update opacity)'에 초점을 맞춰, 사용자가 ML 시스템의 추론이나 행동 변화의 이유와 방식을 이해하지 못하는 상황이 야기하는 인식론적 및 안전상의 문제점을 제기합니다. 기존의 블랙박스 문제 해결책이 업데이트 불투명성 문제에 적절하지 않음을 지적하며, 이를 해결하기 위한 대안 전략으로 이중 사실 설명, 동적 모델 보고, 업데이트 호환성 등을 제시하지만, 각 전략의 위험과 한계 또한 논의합니다. 결론적으로 모델 업데이트와 업데이트 불투명성에 따른 인식론적 및 안전 문제 해결을 위한 추가 연구의 필요성을 강조합니다.