Adversarial Vulnerabilities in Large Language Models for Time Series Forecasting
Created by
Haebom
Category
Empty
저자
Fuqiang Liu, Sicong Jiang, Luis Miranda-Moreno, Seongjin Choi, Lijun Sun
개요
본 논문은 대규모 언어 모델(LLM) 기반 시계열 예측의 취약성을 다룹니다. 다양한 LLM 아키텍처(LLMTime with GPT-3.5, GPT-4, LLaMa, Mistral, TimeGPT, TimeLLM 등)와 데이터셋을 사용하여, 기울기 없는 및 블랙박스 최적화 기법을 활용한 표적 공격 프레임워크를 제시합니다. 이 프레임워크는 최소한의 변화만으로도 예측 정확도를 크게 저하시키는 효과적인 섭동을 생성합니다. 실험 결과, 적대적 공격이 무작위 노이즈보다 훨씬 심각한 성능 저하를 초래함을 보여주며, 다양한 LLM에서 공격의 광범위한 효과를 입증합니다. 이는 실제 응용 분야에서 LLM의 안정적인 배포를 위해 강력한 방어 메커니즘이 필요함을 강조합니다. 코드 저장소는 https://github.com/JohnsonJiang1996/AdvAttack_LLM4TS 에서 확인할 수 있습니다.