본 논문은 대규모 언어 모델 (LLM)의 환각 현상을 해결하기 위해, 인과 추론을 통해 LLM 내부 지식의 다양성을 분석하여 사전적으로 응답을 거부하는 새로운 프레임워크인 Aspect-Based Causal Abstention (ABCA)를 제안합니다. ABCA는 다양한 측면(예: 학문 분야, 법적 맥락, 시간적 프레임)을 기반으로 인과 효과를 추정하여 주어진 질문에 관련된 지식의 신뢰성을 평가하고, 이를 통해 지식 충돌 (Type-1) 및 지식 부족 (Type-2) 상황에서 응답을 거부합니다. 실험 결과는 ABCA가 거부의 신뢰성을 향상시키고, SOTA 성능을 달성하며, 거부 결정의 해석 가능성을 높인다는 것을 보여줍니다.