Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FairPO: Robust Preference Optimization for Fair Multi-Label Learning

Created by
  • Haebom

저자

Soumen Kumar Mondal, Akshit Varmora, Prateek Chanda, Ganesh Ramakrishnan

개요

FairPO는 다중 레이블 분류에서 공정성을 증진시키기 위해 그룹 강건성 관점에서 선호 신호를 직접 최적화하는 새로운 프레임워크입니다. 레이블 집합을 특권 그룹과 비특권 그룹으로 분할하고, Direct Preference Optimization (DPO)에서 영감을 받은 선호 기반 손실을 사용하여 특권 그룹 내에서 진짜 양성 레이블과 혼란스러운 음성 레이블을 보다 효과적으로 구분하는 동시에 비특권 레이블에 대한 기준 분류 성능을 유지합니다. 그룹에 대한 강건한 최적화로 학습 문제를 구성함으로써, 성능이 저조한 그룹에 대한 훈련 강조를 동적으로 조정하여 편향을 완화하고 다양한 레이블 범주에서 더 공정한 처리를 보장합니다. 향후 Simple Preference Optimisation (SimPO) 및 Contrastive Preference Optimization (CPO)과 같은 대체 손실 공식을 조사하여 참조 없는 보상 공식 및 대조 학습 신호를 활용하고, 모호한 입력에 대해 다양하고 일관된 레이블 집합을 동적으로 생성할 수 있도록 다중 레이블 생성 기능을 추가할 계획입니다.

시사점, 한계점

시사점: 다중 레이블 분류에서 그룹 간 공정성을 향상시키는 새로운 프레임워크 제시. 선호도 기반 손실 함수를 활용하여 특권 그룹과 비특권 그룹 간의 불균형을 해소. 강건한 최적화를 통해 성능 저조 그룹에 대한 학습 집중도 조절. SimPO, CPO 등의 확장 가능성 제시. 다중 레이블 생성 기능 추가 계획.
한계점: 현재는 제안된 프레임워크의 실험적 결과가 제시되지 않음. SimPO, CPO, 다중 레이블 생성 기능은 계획 단계에 머물러 있음. 특권 그룹과 비특권 그룹의 분할 기준 및 그룹 강건성의 정의에 대한 명확한 설명이 부족할 수 있음.
👍