본 논문은 대규모 언어 모델(LLM)의 환각(hallucination) 문제를 해결하기 위한 새로운 프레임워크인 AutoRAG-LoRA를 제시합니다. AutoRAG-LoRA는 경량 LoRA 기반 어댑터와 KL-정규화 학습을 통해 환각을 줄이고, 자동 프롬프트 재작성, 하이브리드 검색, 저계수 어댑터 조정을 통합하여 응답을 검색된 증거에 근거하도록 합니다. 또한 분류기 기반 및 자체 평가 기법을 사용하는 환각 탐지 모듈을 통해 생성된 출력에 대한 신뢰도 점수를 할당하고, 선택적 피드백 수정 루프를 통해 사실적 정렬을 강화합니다. 실험 결과, AutoRAG-LoRA는 모델의 효율성과 모듈성을 유지하면서 사실적 오류를 상당히 줄이는 것을 보여줍니다.