VModA: An Effective Framework for Adaptive NSFW Image Moderation
Created by
Haebom
저자
Han Bao, Qinying Wang, Zhi Chen, Qingming Li, Xuhong Zhang, Changjiang Li, Zonghui Wang, Shouling Ji, Wenzhi Chen
개요
본 논문은 소셜 네트워크 상의 NSFW 콘텐츠 탐지의 어려움을 해결하기 위해 새로운 프레임워크 VModA를 제안합니다. 기존의 딥러닝 기반 방법들이 정교한 위장 기법을 사용하는 NSFW 이미지를 탐지하는 데 어려움을 겪는다는 점을 지적하며, VModA는 다양한 규정 및 복잡한 의미를 지닌 NSFW 콘텐츠에 적응 가능한 일반적이고 효과적인 프레임워크임을 강조합니다. 실험 결과, VModA는 기존 방법들보다 최대 54.3% 향상된 정확도를 달성했으며, 다양한 범주, 시나리오 및 기반 VLMs에 대한 강력한 적응력을 보여줍니다. 또한, 기존 NSFW 벤치마크 데이터셋의 불일치 및 논란이 있는 라벨 샘플을 재주석하고 원 관리자에게 수정을 제출하여 데이터셋 개선에 기여했습니다. 실제 환경에서의 평가를 통해 VModA의 실용적인 효과를 입증했습니다.
시사점, 한계점
•
시사점:
◦
다양한 규정과 복잡한 의미를 가진 NSFW 콘텐츠에 효과적으로 대응하는 새로운 프레임워크 VModA 제시