Daily Arxiv

This page organizes papers related to artificial intelligence published around the world.
This page is summarized using Google Gemini and is operated on a non-profit basis.
The copyright of the paper belongs to the author and the relevant institution. When sharing, simply cite the source.

Re-ranking Using Large Language Models for Mitigating Exposure to Harmful Content on Social Media Platforms

Created by
  • Haebom
Category
Empty

저자

Rajvardhan Oak, Muhammad Haroon, Claire Jo, Magdalena Wojcieszak, Anshuman Chhabra

개요

본 논문은 소셜 미디어 플랫폼에서 머신러닝 기반 추천 알고리즘으로 인한 유해 콘텐츠 노출 문제를 해결하기 위해, 대규모 언어 모델(LLM)을 활용한 새로운 재순위 지정 접근 방식을 제안합니다. 기존의 방대한 수동 주석 데이터에 의존하는 분류 방식의 한계를 극복하고자, 제로샷 및 퓨샷 학습 설정에서 LLM을 사용하여 콘텐츠 시퀀스를 동적으로 평가하고 재순위 지정함으로써 유해 콘텐츠 노출을 완화합니다. 유해 콘텐츠 노출 감소 효과를 평가하기 위한 두 가지 새로운 지표를 제시하며, 세 가지 데이터셋, 세 가지 모델, 세 가지 구성에 대한 실험을 통해 기존의 독점적 조정 방식보다 LLM 기반 접근 방식이 유해 콘텐츠 완화에 훨씬 효과적임을 보여줍니다.

시사점, 한계점

시사점:
대규모 언어 모델을 활용하여 유해 콘텐츠 노출을 효과적으로 완화하는 새로운 방법 제시.
기존 방식의 한계점인 확장성 및 새로운 유형의 유해 콘텐츠 적응 문제 해결.
방대한 라벨링 데이터가 필요 없어 효율적인 유해 콘텐츠 조정 가능.
유해 콘텐츠 노출 감소 효과 측정을 위한 새로운 지표 제안.
기존 방식 대비 성능 향상을 실험적으로 입증.
한계점:
제시된 새로운 지표의 일반적인 타당성 및 범용성에 대한 추가 연구 필요.
LLM의 성능이 LLM 자체의 한계 및 편향에 영향을 받을 수 있음.
실험 데이터셋의 일반화 가능성 및 다양성에 대한 추가 검토 필요.
실제 소셜 미디어 플랫폼 환경에서의 적용 및 성능 평가 필요.
👍