본 논문은 인간 중심 설명 가능한 AI (HCXAI) 관점에서 에이전트 파이프라인의 설명 가능성에 대한 초기 연구 결과를 제시합니다. 특히, 최소한의 인간 개입 하에 여러 대형 언어 모델(LLM)이 협력하는 에이전트 파이프라인에서 지각적 작업 안내 시스템을 구현하고, 사고 연쇄(Chain-of-Thought, CoT) 추론이 설명 가능성에 미치는 영향을 정량적 및 정성적 분석을 통해 평가합니다. 분석 결과, CoT 추론만으로는 시스템 출력 개선이나 사용자의 이해도 향상에 기여하지 못하며, 오히려 설명 가능성 없는 설명을 생성하는 것으로 나타났습니다.