본 논문은 중국어 소셜 미디어에서 증가하는 은폐된 악성 콘텐츠 문제를 해결하기 위해 새로운 방법인 C$^2$TU를 제안합니다. C$^2$TU는 학습이 필요없고 프롬프트가 필요없는 방법으로, 중국어 동음이의어와 악성 단어 사전을 기반으로 후보 악성 단어를 식별하고, BERT 또는 대규모 언어 모델(LLM) 기반 필터링을 통해 비악성 단어를 제거하며, 은폐된 단어를 실제 악성 단어로 수정합니다. 특히 LLM을 사용하는 경우, 단어 출현 확률 계산의 자기회귀적 한계를 해결하고 문장의 전체 의미적 맥락을 활용하여 은폐된 악성 단어를 밝힙니다. 실험 결과, C$^2$TU는 기존 최고 성능 모델보다 F1 점수는 최대 71%, 정확도는 최대 35% 향상된 성능을 보였습니다.