Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LoopLLM: Transferable Energy-Latency Attacks in LLMs via Repetitive Generation

Created by
  • Haebom
Category
Empty

저자

Xingyu Li, Xiaolei Liu, Cheng Liu, Yixiao Xu, Kangyi Ding, Bangzhou Xin, Jia-Li Yin

개요

대규모 언어 모델(LLM)의 추론 과정에서 발생하는 에너지와 지연 시간 문제를 악용하는 공격인 에너지-지연 시간 공격에 대한 연구. 기존 공격 방법의 한계를 극복하기 위해, LoopLLM이라는 새로운 공격 프레임워크를 제안함. LoopLLM은 반복적인 생성을 유도하는 프롬프트 최적화와 모델 간 전이성을 향상시키는 토큰 정렬 앙상블 최적화를 통해 LLM이 출력 한계까지 반복적으로 생성하도록 유도. 12개의 오픈 소스 및 2개의 상용 LLM에 대한 실험 결과, LoopLLM이 기존 방법보다 월등한 성능을 보이며, 특히 출력 길이 측면에서 90% 이상을 달성하고, DeepSeek-V3 및 Gemini 2.5 Flash에 대한 전이성을 약 40% 향상시킴.

시사점, 한계점

시사점:
에너지-지연 시간 공격 분야에서 새로운 공격 프레임워크 제시.
기존 공격 방법의 한계를 극복하고, LLM의 출력 길이를 효과적으로 제어.
모델 간 전이성을 향상시켜 다양한 LLM에 적용 가능성 입증.
한계점:
구체적인 에너지 소비량 및 지연 시간 변화에 대한 정량적 분석 부재 가능성.
공격이 특정 LLM에 최적화될 수 있으며, 모든 LLM에 동일한 효과를 보장하지 않을 수 있음.
윤리적 고려: 공격 프레임워크가 악의적인 목적으로 사용될 수 있음.
👍