대규모 언어 모델(LLM)은 자연어 이해 및 생성 능력이 빠르게 발전하고 있지만, 기업 환경에서 폐쇄형 도메인 지식과 결합하여 사용될 때 종종 환각 현상을 겪습니다. 제한된 컨텍스트 윈도우와 사전 훈련 데이터와 제공된 지식 간의 불일치로 인해 발생하며, 기존 완화 전략은 비용이 많이 들거나 결정적 보장을 제공하지 못합니다. 본 논문에서는 독점 지식과 모델 생성 콘텐츠를 대화형 시각적 지식 그래프로 구성하는 프레임워크를 제시합니다. 이 프레임워크는 사용자가 모델의 주장을 근본적인 진실 소스와 연결하고 신뢰도를 표시하여 잠재적 환각 영역을 직관적으로 파악할 수 있도록 합니다. 사용자는 이 시각적 인터페이스를 통해 불일치 사항을 진단하고, 약한 추론 체인을 식별하며, 수정 피드백을 제공할 수 있습니다. 결과적인 사람-중심 워크플로우는 모델 신뢰도를 높이고 응답 품질을 지속적으로 향상시키는 구조화된 피드백 루프를 생성합니다.