LLM(Large Language Model)이 정보 검색의 핵심 요소가 되면서, 질문 응답 챗봇으로서의 역할이 늘어남에 따라 적대적 MitM(Man-in-the-Middle) 공격에 대한 취약성이 우려되고 있다. 본 연구에서는 Xmera라는 새로운 MitM 프레임워크를 통해 프롬프트 주입 공격 하에서 LLM의 사실적 기억에 대한 공격 평가를 최초로 수행했다. 세 가지 닫힌 책 기반의 사실 기반 QA(Question Answering) 환경에서 "희생" LLM에 주어진 입력을 변형하여 응답의 정확성을 훼손하고, 생성 프로세스의 불확실성을 평가했다. 사소한 instruction-based 공격이 가장 높은 성공률(최대 ~85.3%)을 보였으며, 잘못된 질문에 대한 높은 불확실성을 동시에 나타냈다. Xmera에 대한 간단한 방어 메커니즘을 제공하기 위해 응답 불확실성 수준에 대해 Random Forest 분류기를 훈련하여 공격받은 쿼리와 공격받지 않은 쿼리를 구별했다(평균 AUC 최대 ~96%).