대규모 언어 모델(LLM)의 추론 과정에서 발생하는 에너지와 지연 시간 문제를 악용하는 공격인 에너지-지연 시간 공격에 대한 연구. 기존 공격 방법의 한계를 극복하기 위해, LoopLLM이라는 새로운 공격 프레임워크를 제안함. LoopLLM은 반복적인 생성을 유도하는 프롬프트 최적화와 모델 간 전이성을 향상시키는 토큰 정렬 앙상블 최적화를 통해 LLM이 출력 한계까지 반복적으로 생성하도록 유도. 12개의 오픈 소스 및 2개의 상용 LLM에 대한 실험 결과, LoopLLM이 기존 방법보다 월등한 성능을 보이며, 특히 출력 길이 측면에서 90% 이상을 달성하고, DeepSeek-V3 및 Gemini 2.5 Flash에 대한 전이성을 약 40% 향상시킴.