Sign In

Towards Multi-Stakeholder Evaluation of ML Models: A Crowdsourcing Study on Metric Preferences in Job-matching System

Created by
  • Haebom
Category
Empty

저자

Takuya Yokota, Yuri Nakao

개요

본 연구는 기계 학습(ML) 모델 평가에 있어 다양한 이해관계자의 의견을 반영하는 실용적인 방법을 제시하고자, 크라우드소싱을 통해 837명의 참가자를 대상으로 가상의 구직 매칭 시스템에서 두 개의 ML 모델 중 더 나은 모델을 선택하게 하는 실험을 수행했습니다. 참가자들은 7가지 지표에 대한 유틸리티 값을 계산하였고, 이를 바탕으로 참가자들을 5개의 클러스터로 분류하여 각 클러스터의 지표 선호도 및 공통 속성을 분석했습니다. 결과적으로 다양한 이해관계자를 고려한 ML 모델 평가 및 적절한 지표 선택 시 고려해야 할 사항들을 논의했습니다.

시사점, 한계점

시사점:
크라우드소싱을 통해 다양한 이해관계자의 선호도를 반영하여 ML 모델 평가 지표를 선택할 수 있는 실용적인 방법을 제시.
이해관계자들의 지표 선호도를 클러스터링 분석을 통해 상세히 분석하고 그 특징을 밝힘으로써, 더욱 공정하고 효과적인 ML 모델 평가를 위한 기반 마련.
다양한 이해관계자의 요구를 만족시키는 ML 모델 개발 및 배포에 기여할 수 있는 함의 제시.
한계점:
연구에 사용된 가상의 구직 매칭 시스템은 실제 시스템과 차이가 있을 수 있으며, 결과의 일반화 가능성에 대한 제한 존재.
7가지 지표만을 사용하여 분석하였으므로, 다른 중요한 지표들을 고려하지 못했을 가능성.
참가자들의 응답 편향 및 크라우드소싱의 특성상 발생할 수 있는 데이터의 신뢰성 문제.
참가자들의 다양성(예: 배경, 경험 등)에 대한 충분한 고려가 부족했을 가능성.
👍