본 논문은 다양한 언어를 지원하는 대규모 언어 모델(LLM)이 생성한 콘텐츠 내 환각(hallucination)을 탐지하는 SemEval-2025 Task 3 (Mu-SHROOM)에 초점을 맞추고 있습니다. 이는 환각의 존재 여부를 식별하는 것뿐만 아니라, 그 구체적인 발생 위치를 지정하는 것을 포함합니다. 이를 위해 수정된 RefChecker와 수정된 SelfCheckGPT라는 두 가지 방법을 제시합니다. 수정된 RefChecker는 프롬프트 기반 사실 확인을 참조 자료에 통합하여 단일 외부 지식 소스가 아닌 주장 기반 테스트로 구성합니다. 수정된 SelfCheckGPT는 내부 지식에 대한 의존성을 극복하기 위해 외부 지식을 통합합니다. 또한, 두 방법 모두 LLM이 생성한 텍스트 내에서 환각된 단어를 식별하도록 기존 프롬프트 디자인을 개선했습니다. 실험 결과는 다양한 언어에서 환각을 탐지하는 데 있어 평균 IoU 0.5310 및 평균 COR 0.5669를 달성하여 제시된 접근 방식의 효과를 보여줍니다.