Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A Collaborative Content Moderation Framework for Toxicity Detection based on Conformalized Estimates of Annotation Disagreement

Created by
  • Haebom

저자

Guillermo Villate-Castillo, Javier Del Ser, Borja Sanz

개요

본 논문은 콘텐츠 조정에서 주석의 불일치를 활용하는 새로운 프레임워크를 제시합니다. 기존의 콘텐츠 조정 시스템은 인간 모더레이터와 머신러닝 모델을 결합하지만, 주석 불일치를 노이즈로 간주하는 경향이 있습니다. 본 논문에서는 이러한 불일치를 콘텐츠의 모호성을 보여주는 귀중한 신호로 해석하고, 다중 작업 학습을 통해 독성 분류와 주석 불일치를 동시에 학습하는 접근 방식을 제시합니다. 특히 Conformal Prediction을 활용하여 주석의 모호성과 모델의 불확실성을 고려하고, 모더레이터가 주석 불일치에 대한 임계값을 조정할 수 있도록 유연성을 제공합니다. 실험 결과, 제시된 프레임워크는 단일 작업 방식에 비해 모델 성능, 보정, 불확실성 추정을 향상시키고 매개변수 효율성을 높이며 검토 프로세스를 개선하는 것으로 나타났습니다.

시사점, 한계점

시사점:
콘텐츠 조정에서 주석 불일치를 중요한 정보로 활용하여 모델 성능을 향상시킬 수 있음을 보여줌.
다중 작업 학습과 불확실성 추정 기법을 결합하여 더욱 정확하고 신뢰할 수 있는 콘텐츠 조정 시스템을 구축할 수 있음을 제시.
모더레이터에게 유연성을 제공하여 콘텐츠 검토 프로세스를 개선하고 효율성을 높임.
매개변수 효율성 향상을 통해 시스템 자원을 효율적으로 사용할 수 있음.
한계점:
제안된 프레임워크의 일반성 및 다양한 콘텐츠 유형에 대한 적용 가능성에 대한 추가 연구가 필요.
주석 불일치에 대한 임계값 설정의 최적화 전략에 대한 추가적인 연구가 필요.
실제 서비스 환경에서의 성능 평가 및 확장성에 대한 검토가 필요.
👍