본 논문은 대규모 언어 모델(LLM)이 생성한 텍스트(MGT)를 탐지하는 기존 방법들을 우회하기 위한 공격(evading attacks)들을 종합적으로 평가하는 벤치마크, Text-Humanization Benchmark (TH-Bench)를 제시합니다. TH-Bench는 우회 효과, 텍스트 품질, 계산 오버헤드의 세 가지 측면에서 6가지 최첨단 공격들을 13가지 MGT 탐지기에 대해 6개 데이터셋(19개 도메인, 11개 LLM)을 사용하여 평가합니다. 실험 결과, 어떤 단일 공격도 세 가지 측면 모두에서 우수하지 않음을 보이고, 각 공격의 강점과 한계를 분석하여 세 가지 측면 간의 상호작용 및 최적화 방향을 제시합니다.