Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Fair-PP: A Synthetic Dataset for Aligning LLM with Personalized Preferences of Social Equity

Created by
  • Haebom

저자

Qi Zhou, Jie Zhang, Dongxia Wang, Qiang Liu, Tianlin Li, Jin Song Dong, Wenhai Wang, Qing Guo

개요

본 논문은 대규모 언어 모델(LLM)의 개선에 있어 인간의 선호도가 중요한 역할을 한다는 점을 바탕으로, 개인화된 선호도와 사회적 형평성에 초점을 맞춘 합성 데이터셋 Fair-PP를 제시합니다. Fair-PP는 실제 사회 조사 데이터를 기반으로 28개의 사회 집단, 98개의 형평성 주제, 5개의 개인 선호도 차원을 포함하는 238,623개의 선호도 기록으로 구성됩니다. GPT-4o-mini를 활용한 역할극 기반의 자동화된 프레임워크를 통해 생성되었으며, 기존 주요 LLM들의 개인 선호도 공간 내 위치 분석 및 개인 선호도 정렬을 위한 샘플 재가중치 부여 방법 또한 제시합니다. 실험 결과, 제안된 방법이 기존 기준보다 성능이 우수함을 보여줍니다.

시사점, 한계점

시사점:
개인화된 선호도를 고려한 LLM 미세 조정을 위한 새로운 합성 데이터셋 Fair-PP 제공.
사회적 형평성을 고려한 LLM 개발 및 평가에 기여.
자동화된 선호도 데이터 생성 프레임워크 제시.
기존 LLM의 개인 선호도 공간 내 위치 분석을 통한 LLM 성능 향상 방향 제시.
개인 선호도 정렬을 위한 효과적인 샘플 재가중치 부여 방법 제시.
한계점:
합성 데이터의 한계: 실제 인간의 선호도를 완벽히 반영하지 못할 가능성.
GPT-4o-mini에 의존적인 방법론: 다른 모델 사용 시 결과의 일반화 가능성에 대한 검증 필요.
사회적 형평성의 정의 및 측정에 대한 주관성: 사회적 맥락과 문화적 차이에 대한 고려 필요.
사용된 사회 조사 데이터의 대표성 및 일반화 가능성에 대한 검토 필요.
👍