Sign In

Thoughts without Thinking: Reconsidering the Explanatory Value of Chain-of-Thought Reasoning in LLMs through Agentic Pipelines

Created by
  • Haebom
Category
Empty

저자

Ramesh Manuvinakurike, Emanuel Moss, Elizabeth Anne Watkins, Saurav Sahay, Giuseppe Raffa, Lama Nachman

개요

본 논문은 인간 중심 설명 가능한 AI (HCXAI) 관점에서 에이전트 파이프라인의 설명 가능성에 대한 초기 연구 결과를 제시합니다. 특히, 최소한의 인간 개입 하에 여러 대형 언어 모델(LLM)이 협력하는 에이전트 파이프라인에서 지각적 작업 안내 시스템을 구현하고, 사고 연쇄(Chain-of-Thought, CoT) 추론이 설명 가능성에 미치는 영향을 정량적 및 정성적 분석을 통해 평가합니다. 분석 결과, CoT 추론만으로는 시스템 출력 개선이나 사용자의 이해도 향상에 기여하지 못하며, 오히려 설명 가능성 없는 설명을 생성하는 것으로 나타났습니다.

시사점, 한계점

시사점: 에이전트 파이프라인에서 CoT 추론만으로는 충분한 설명 가능성을 확보할 수 없다는 점을 실증적으로 보여줍니다. HCXAI 연구에 있어 CoT 추론의 한계를 명확히 제시하여 향후 연구 방향 설정에 기여합니다.
한계점: 초기 연구 결과이며, 제한된 범위의 에이전트 파이프라인과 작업에 대한 분석 결과라는 점입니다. 다양한 유형의 에이전트 파이프라인과 작업에 대한 추가 연구가 필요합니다. 또한, CoT 추론 외 다른 설명 가능성 기법의 효과에 대한 검토가 부족합니다.
👍