Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Breaking the Cloak! Unveiling Chinese Cloaked Toxicity with Homophone Graph and Toxic Lexicon

Created by
  • Haebom

저자

Xuchen Ma, Jianxiang Yu, Wenming Shao, Bo Pang, Xiang Li

개요

본 논문은 중국어 소셜 미디어에서 증가하는 은폐된 악성 콘텐츠 문제를 해결하기 위해 새로운 방법인 C$^2$TU를 제안합니다. C$^2$TU는 학습이 필요없고 프롬프트가 필요없는 방법으로, 중국어 동음이의어와 악성 단어 사전을 기반으로 후보 악성 단어를 식별하고, BERT 또는 대규모 언어 모델(LLM) 기반 필터링을 통해 비악성 단어를 제거하며, 은폐된 단어를 실제 악성 단어로 수정합니다. 특히 LLM을 사용하는 경우, 단어 출현 확률 계산의 자기회귀적 한계를 해결하고 문장의 전체 의미적 맥락을 활용하여 은폐된 악성 단어를 밝힙니다. 실험 결과, C$^2$TU는 기존 최고 성능 모델보다 F1 점수는 최대 71%, 정확도는 최대 35% 향상된 성능을 보였습니다.

시사점, 한계점

시사점:
중국어 은폐된 악성 콘텐츠 탐지에 대한 새로운 접근 방식 제시
기존 방법보다 우수한 성능을 달성 (F1 점수 최대 71%, 정확도 최대 35% 향상)
학습이 필요없고 프롬프트가 필요없는 효율적인 방법 제시
LLM의 전체 의미적 맥락 활용을 통한 성능 향상
한계점:
중국어에 특화되어 있어 다른 언어에는 적용이 어려울 수 있음
새로운 은폐 기법이나 악성 단어에 대한 적응력이 부족할 수 있음
BERT 및 LLM 기반 필터링의 성능은 모델의 품질에 의존적일 수 있음
substring matching 기반의 후보 단어 선정 방식의 정확도에 따라 성능이 영향을 받을 수 있음
👍