본 논문은 대규모 언어 모델(LLM)이 자연어 설명(NLE)을 생성할 때 외부 컨텍스트 지식(CK)과 모델 가중치에 저장된 파라미터 지식(PK) 간의 상호작용을 분석하는 새로운 프레임워크를 제안한다. 기존 연구가 단일 단계 생성 및 랭크-1 부분 공간에서의 이진 선택으로 PK와 CK 상호작용을 모델링하는 한계를 극복하고자, 랭크-2 투영 부분 공간을 사용하여 보다 정확하게 PK와 CK 기여도를 분리한다. 이를 통해 멀티 스텝 분석을 수행하고, 다양한 QA 데이터셋과 LLM을 대상으로 실험하여 PK-CK 상호작용을 효과적으로 파악하고, 환각 NLE, 컨텍스트에 충실한 NLE, 그리고 Chain-of-Thought 프롬프팅의 효과를 분석한다.