본 연구는 대규모 언어 모델(LLM)이 생성한 완화된 유해 질의(MHQ)를 동일 모델의 다른 세션에 입력하여 발생하는 공격 시나리오인 Self-HarmLLM을 제안합니다. MHQ는 유해성이 직접적으로 드러나지 않으면서 원래 의도는 유지되는 모호한 질의입니다. GPT-3.5-turbo, LLaMA3-8B-instruct, DeepSeek-R1-Distill-Qwen-7B 모델을 대상으로 Base, Zero-shot, Few-shot 조건에서 실험을 진행했습니다.