Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Logic layer Prompt Control Injection (LPCI): A Novel Security Vulnerability Class in Agentic Systems

Created by
  • Haebom

저자

Hammad Atta, Ken Huang, Manish Bhatt, Kamal Ahmed, Muhammad Aziz Ul Haq, Yasir Mehmood

개요

대규모 언어 모델(LLM)이 기업 시스템에 통합됨에 따라, 특히 논리 실행 계층과 영구 메모리 컨텍스트 내에서 새로운 유형의 은밀한 보안 취약성이 발생했습니다. 본 논문에서는 메모리, 벡터 저장소 또는 도구 출력에 인코딩된, 지연되고 조건부로 트리거되는 페이로드를 포함하는 새로운 공격 유형인 논리 계층 프롬프트 제어 주입(LPCI)을 소개합니다. 이러한 페이로드는 기존의 입력 필터를 우회하여 세션 간에 무단 동작을 트리거할 수 있습니다.

시사점, 한계점

시사점: LLM 기반 시스템의 새로운 보안 취약성인 LPCI 공격에 대한 인식을 제고하고, 이에 대한 방어 전략 개발의 필요성을 강조합니다. 기존의 입력 필터만으로는 LPCI 공격을 막을 수 없다는 점을 시사합니다.
한계점: 현재로서는 LPCI 공격에 대한 구체적인 방어 기법이나 완화 전략이 제시되지 않았습니다. 논문에서 제시된 공격 시나리오의 실제 환경 적용 가능성 및 그 영향에 대한 추가적인 연구가 필요합니다.
👍