DetectRL: Benchmarking LLM-Generated Text Detection in Real-World Scenarios
Created by
Haebom
Category
Empty
저자
Junchao Wu, Runzhe Zhan, Derek F. Wong, Shu Yang, Xinyi Yang, Yulin Yuan, Lidia S. Chao
개요
본 논문은 대규모 언어 모델(LLM)이 생성한 텍스트를 탐지하는 최첨단 기술의 실제 적용 가능성에 대한 한계를 조명하는 새로운 벤치마크, DetectRL을 제시합니다. 기존 연구와 달리, LLM의 오용 가능성이 높은 도메인에서 수집한 인간 작성 데이터와 다양한 공격 기법(예: 어휘 치환, 철자 오류, 프롬프트 활용 방식 변화)을 적용하여 생성된 LLM 텍스트를 사용하여 실제 환경에 가까운 데이터셋을 구축했습니다. DetectRL을 통해 최첨단 탐지 기술의 강점과 약점을 분석하고, 글쓰기 스타일, 모델 종류, 공격 방법, 텍스트 길이, 인간의 글쓰기 요소 등이 탐지 성능에 미치는 영향을 분석했습니다. DetectRL은 실제 환경에서의 탐지기 성능 평가를 위한 효과적인 벤치마크로 활용될 수 있으며, 지속적인 발전을 통해 더욱 강력한 탐지 기술 개발을 촉진할 것으로 기대됩니다. 데이터와 코드는 공개적으로 제공됩니다 (https://github.com/NLP2CT/DetectRL).