본 논문은 다양한 언어를 지원하는 대규모 언어 모델(LLM)이 생성한 콘텐츠에서 환각(hallucination)을 탐지하는 SemEval-2025 Task 3 (Mu-SHROOM)에 대한 연구를 다룹니다. 환각의 존재 여부를 확인하는 것뿐만 아니라, 환각이 발생한 특정 부분을 지적하는 것을 목표로 합니다. 이를 위해 수정된 RefChecker와 수정된 SelfCheckGPT라는 두 가지 방법을 제시합니다. 수정된 RefChecker는 프롬프트 기반 사실 확인을 참조 자료에 통합하여 단일 외부 지식 소스가 아닌 주장 기반 테스트로 구성하고, 수정된 SelfCheckGPT는 내부 지식에 대한 의존성을 극복하기 위해 외부 지식을 통합합니다. 또한, 두 방법 모두 원래 프롬프트 디자인을 개선하여 LLM이 생성한 텍스트 내에서 환각된 단어를 식별합니다. 실험 결과는 다양한 언어에 걸쳐 환각을 탐지하는 데 있어 본 접근 방식의 효과를 보여주며, 평균 IoU 0.5310 및 평균 COR 0.5669를 달성하여 테스트 데이터셋에서 높은 순위를 기록했습니다.