대형 언어 모델(LLM)의 불성실성 문제를 해결하기 위해, 행동적 성실성(추론과 출력 간의 정렬)과 지각적 성실성(추론과 입력 간의 정렬)을 구분하고, 이미지 내에서 각 객체의 시각적 지원 여부를 평가하여 단계별 및 체인 레벨의 성실성을 정량화하는 FaithEval을 소개합니다. 이를 기반으로, 각 추론 단계에서 증거 기반의 근거를 강제하는 성실성 우선 계획 및 실행 프레임워크인 FaithAct를 제안합니다. 다양한 추론 벤치마크 실험에서 FaithAct는 프롬프트 기반 및 도구 보강 기준선에 비해 작업 정확도를 저하시키지 않으면서 지각적 성실성을 최대 26%까지 향상시켰습니다.