Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

From Model Performance to Claim: How a Change of Focus in Machine Learning Replicability Can Help Bridge the Responsibility Gap

Created by
  • Haebom

저자

Tianqi Kou

개요

본 논문은 머신러닝 연구의 재현성과 책임성 향상이라는 두 가지 목표를 다루며, 이 두 목표가 과학적 추론에 기반한 재현성과 윤리적 추론에 기반한 책임성이라는 서로 다른 맥락에서 논의되는 점을 지적합니다. 특히 머신러닝 과학자들이 응용 현장과 멀리 떨어져 있어 책임을 묻기 어려운 '책임의 공백(Responsibility Gap)' 문제를 해결하기 위해, 모델 성능 재현성이 아닌 주장 재현성(claim replicability) 개념을 제시합니다. 주장 재현성은 머신러닝 과학자들이 오용 및 오해로 인한 피해를 유발할 수 있는 비재현적인 주장을 만들었을 때 책임을 묻는 데 유용하다고 주장하며, 이를 위해 두 가지 유형의 재현성을 정의하고, 주장 재현성의 장점을 제시합니다. 또한, 주장 재현성의 구현을 기술적 과제가 아닌 사회적 프로젝트로 규정하고, 경쟁적인 인식론적 원칙, 순환적 참조(Circulating Reference), 해석적 노동(Interpretative Labor), 연구 의사소통에 대한 실질적 영향 등을 논의합니다.

시사점, 한계점

시사점:
머신러닝 연구의 재현성과 책임성 향상을 위한 새로운 관점(주장 재현성) 제시
책임의 공백 문제 해결에 대한 실질적인 접근 방식 제안
재현성에 대한 건설적인 논의를 촉진할 수 있는 두 가지 유형의 재현성 정의
주장 재현성의 구현을 위한 사회적, 기술적 과제 제시
한계점:
주장 재현성의 구체적인 평가 기준 및 측정 방법에 대한 명확한 제시 부족
주장 재현성의 사회적 프로젝트로서의 구현 과정에서 발생할 수 있는 어려움 및 갈등에 대한 충분한 고찰 부족
다양한 분야의 머신러닝 연구에 주장 재현성 개념을 적용하는 데 있어서의 일반화 가능성에 대한 추가적인 연구 필요
👍