본 논문은 ASCII 아트 형태의 공간적으로 구조화된 텍스트를 언어 모델이 해석하지 못하는 취약점을 이용한 독성 감지 모델에 대한 새로운 적대적 공격 방법을 제시합니다. 독성 감지 시스템의 로버스트니스를 시각적으로 난독화된 입력에 대해 평가하기 위한 벤치마크인 ToxASCII를 제안하고, 다양한 최첨단 대규모 언어 모델과 전용 모더레이션 도구에서 완벽한 공격 성공률(ASR)을 달성함으로써 현재 텍스트 전용 모더레이션 시스템의 심각한 취약성을 드러냅니다.