본 논문은 모델 훈련 과정에서 악의적이거나 편향된 데이터를 의도적으로 또는 의도치 않게 주입하는 "LLM 포이즈닝"이 초래하는 몇 가지 위험을 연구한다. 제한된 데이터 세트에 미세 조정된 LLM이 어떻게 상당한 편향을 유발할 수 있는지 보여준다. 특히, 간단한 LLM 기반 경고 조사자가 도입된 편향을 활용하는 프롬프트를 사용할 때 완전히 우회될 수 있음을 입증한다. Fine-tuned Llama3.1 8B 및 Qwen3 4B 모델을 사용하여 특정 사용자의 진실 긍정 경고를 일관되게 기각하도록 모델을 편향시키는 표적 포이즈닝 공격을 시연한다. 또한, 보안 애플리케이션에서 적용되는 LLM의 신뢰성, 견고성 및 위험 감소를 위한 완화 및 모범 사례를 제안한다.