Logic layer Prompt Control Injection (LPCI): A Novel Security Vulnerability Class in Agentic Systems
Created by
Haebom
저자
Hammad Atta, Ken Huang, Manish Bhatt, Kamal Ahmed, Muhammad Aziz Ul Haq, Yasir Mehmood
개요
대규모 언어 모델(LLM)이 기업 시스템에 통합됨에 따라, 특히 논리 실행 계층과 영구 메모리 컨텍스트 내에서 새로운 유형의 은밀한 보안 취약성이 발생했습니다. 본 논문에서는 메모리, 벡터 저장소 또는 도구 출력에 인코딩된, 지연되고 조건부로 트리거되는 페이로드를 포함하는 새로운 공격 유형인 논리 계층 프롬프트 제어 주입(LPCI)을 소개합니다. 이러한 페이로드는 기존의 입력 필터를 우회하여 세션 간에 무단 동작을 트리거할 수 있습니다.
시사점, 한계점
•
시사점: LLM 기반 시스템의 새로운 보안 취약성인 LPCI 공격에 대한 인식을 제고하고, 이에 대한 방어 전략 개발의 필요성을 강조합니다. 기존의 입력 필터만으로는 LPCI 공격을 막을 수 없다는 점을 시사합니다.
•
한계점: 현재로서는 LPCI 공격에 대한 구체적인 방어 기법이나 완화 전략이 제시되지 않았습니다. 논문에서 제시된 공격 시나리오의 실제 환경 적용 가능성 및 그 영향에 대한 추가적인 연구가 필요합니다.