본 논문은 소셜 미디어의 급증으로 인해 온라인에서 밈을 이용한 학대가 증가하고 있음을 지적하며, 밈의 미묘하고 암시적인 의미 때문에 부정적 영향을 평가하는 것이 어렵다는 점을 강조합니다. 이에 따라 다양한 모드를 처리하는 대규모 다중 모드 모델(LMM)의 능력에 주목하여, GPT-4o 등 여러 LMM이 밈에 나타나는 미묘한 사회적 학대를 감지하고 반응하는 능력을 종합적으로 조사합니다. 6,000개 이상의 다양한 밈으로 구성된 포괄적인 밈 벤치마크인 GOAT-Bench를 소개하고, 이를 사용하여 LMM의 증오심, 여성혐오, 공격성, 비꼬는 말투, 유해 콘텐츠 평가 능력을 평가합니다. 실험 결과, 현재 모델들은 안전에 대한 인식이 부족하고 암시적인 학대의 다양한 형태에 무감각하다는 것을 보여주며, 이러한 부족함이 안전한 인공지능 구현에 중요한 장애물이 된다고 주장합니다. GOAT-Bench 및 관련 자료는 공개적으로 접근 가능합니다.