본 논문은 다양한 유형의 혐오 메시지에 대한 공격적인 콘텐츠 관리 모델 최적화가 기존에는 새로운 혐오 발언 벤치마크에 대한 지속적인 사전 훈련 또는 미세 조정을 통해 이루어졌지만, 기존 벤치마크가 명시적인 혐오에만 초점을 맞추고 암묵적 또는 간접적인 혐오를 간과하는 문제점을 지적한다. 이에 따라, 반복적인 미세 조정의 필요성에 의문을 제기하고, 혐오 발언 감지 및 안전 관리에 최적화된 언어 모델에서 파생된 클래스 수준의 벡터 표현인 HatePrototypes의 역할을 분석한다. 소수의 예시(클래스당 50개)로 구축된 HatePrototypes가 명시적 및 암묵적 혐오 간의 상호 작업 전송을 가능하게 하며, 벤치마크 간에도 교환 가능함을 발견했다. 또한, HatePrototypes를 사용한 파라미터 없는 조기 종료가 두 가지 혐오 유형 모두에 효과적임을 입증했다. 효율적이고 전송 가능한 혐오 발언 감지에 대한 연구를 지원하기 위해 코드, 프로토타입 리소스 및 평가 스크립트를 공개한다.