Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Is LLM an Overconfident Judge? Unveiling the Capabilities of LLMs in Detecting Offensive Language with Annotation Disagreement

Created by
  • Haebom

저자

Junyu Lu, Kai Ma, Kaichun Wang, Kelaiti Xiao, Roy Ka-Wei Lee, Bo Xu, Liang Yang, Hongfei Lin

개요

본 논문은 대규모 언어 모델(LLM)을 이용한 공격적 언어 탐지에서 주석 불일치 문제를 체계적으로 평가한 연구입니다. 주석 불일치는 주관적 해석으로 인해 발생하는 모호한 샘플을 포함하며, LLM이 이러한 샘플을 어떻게 처리하고, 특히 신뢰 수준이 어떻게 변하는지 분석합니다. 다양한 수준의 주석 일치도를 가진 샘플을 사용하여 여러 LLM의 성능을 이진 분류 정확도, 모델 신뢰도와 사람 간 불일치의 관계, 소수 샷 학습 및 지시어 미세 조정 중 불일치 샘플의 영향 등을 분석합니다. 그 결과, LLM은 주석 불일치가 높은 샘플에서 어려움을 겪고 과신하는 경향이 있지만, 불일치 샘플을 학습에 활용하면 탐지 정확도와 사람의 판단과의 일치도가 향상됨을 발견했습니다.

시사점, 한계점

시사점:
LLM의 공격적 언어 탐지 성능은 주석 불일치 수준에 따라 크게 영향을 받는다.
주석 불일치 샘플을 학습 데이터에 포함시키면 LLM의 성능과 사람의 판단과의 일치도를 향상시킬 수 있다.
LLM의 신뢰도는 주석 불일치 샘플에 대한 예측 정확도와 상관관계가 있다.
본 연구는 실제 온라인 모더레이션 작업에 LLM 기반 공격적 언어 탐지 시스템을 개선하는 데 기여할 수 있는 중요한 통찰력을 제공한다.
한계점:
연구에 사용된 LLM과 데이터셋의 종류 및 규모가 제한적일 수 있다.
주석 불일치의 원인과 유형에 대한 심층적인 분석이 부족할 수 있다.
실제 모더레이션 환경에서의 일반화 성능에 대한 추가적인 검증이 필요하다.
👍