Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Addressing Concept Mislabeling in Concept Bottleneck Models Through Preference Optimization

Created by
  • Haebom

저자

Emiliano Penaloza, Tianyue H. Zhan, Laurent Charlin, Mateo Espinosa Zarlenga

개요

Concept Bottleneck Models (CBMs)은 인간이 이해할 수 있는 개념 집합에 AI 시스템의 결정을 제한함으로써 신뢰성을 높이도록 제안되었다. 하지만 CBMs는 일반적으로 데이터셋이 정확한 개념 레이블을 포함한다고 가정하는데, 이는 실제로는 종종 위반되며, 성능을 크게 저하시킬 수 있음을 보여준다(일부 경우 25%까지). 본 논문은 이 문제를 해결하기 위해 Direct Preference Optimization을 기반으로 하는 새로운 손실 함수인 Concept Preference Optimization (CPO) 목표를 제시한다. CPO는 개념 오표기의 부정적 영향을 효과적으로 완화한다. 본 논문은 CPO 목표의 주요 속성을 분석하여 개념의 사후 분포를 직접 최적화함을 보여주고, Binary Cross Entropy (BCE)와 비교하여 CPO가 개념 노이즈에 본질적으로 덜 민감함을 보여준다. 실험적으로 세 가지 실제 데이터셋에서 추가 레이블 노이즈가 있든 없든 CPO가 BCE보다 일관되게 성능이 우수함을 확인했다. 코드는 Github에 공개한다.

시사점, 한계점

시사점: 개념 오표기에 강건한 Concept Bottleneck Model을 위한 새로운 손실 함수인 CPO를 제시하고, 그 효과를 실험적으로 검증하였다. CPO는 BCE보다 개념 노이즈에 덜 민감하여 실제 데이터셋에서 더 나은 성능을 보였다.
한계점: 현재 세 개의 실제 데이터셋에 대한 실험 결과만 제시되었으므로, 더 다양하고 대규모의 데이터셋에 대한 추가적인 실험이 필요하다. CPO의 일반화 성능에 대한 추가적인 연구가 필요하다.
👍