Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Mind Your Step (by Step): Chain-of-Thought can Reduce Performance on Tasks where Thinking Makes Humans Worse

Created by
  • Haebom

저자

Ryan Liu, Jiayi Geng, Addison J. Wu, Ilia Sucholutsky, Tania Lombrozo, Thomas L. Griffiths

개요

본 논문은 Chain-of-thought (CoT) 프롬프팅이 대규모 언어 및 다중 모달 모델 성능 향상에 널리 사용되지만, 어떤 설정에서 CoT가 성능을 체계적으로 저하시키는지에 대한 의문이 여전히 남아있다는 점을 지적합니다. 인지 심리학에서 영감을 얻어, 인간에게 숙고가 성능을 저해하는 여섯 가지 대표적인 과제를 중심으로 CoT가 성능을 저하시키는 과제의 특징을 파악하고자 합니다. 실험 결과, 세 가지 과제에서 최첨단 모델은 CoT를 사용할 때 상당한 성능 저하(OpenAI o1-preview의 경우 GPT-4o에 비해 최대 36.3%의 절대 정확도 감소)를 보였고, 다른 과제에서는 CoT의 효과가 긍정적, 중립적, 부정적 변화를 보이는 등 혼합된 결과를 나타냈습니다. 모델과 인간의 인지 과정이 완벽하게 평행하지는 않지만, 인간에게 사고가 부정적인 결과를 초래하는 경우를 고려함으로써 모델에 부정적인 영향을 미치는 설정을 식별하는 데 도움이 됩니다. 인간의 언어적 사고와 숙고에 대한 연구 문헌과 CoT 평가를 연결하여 추론 시간 추론의 영향을 이해하기 위한 관점을 제시합니다.

시사점, 한계점

시사점: 인간의 인지 심리학적 연구를 바탕으로 CoT 프롬프팅의 성능 저하 원인을 분석하여, 모델의 추론 과정에 대한 이해를 심화시켰습니다. CoT가 효과적이지 않은 특정 과제 유형을 규명하여, 모델 개발 및 적용 시 효율성을 높일 수 있는 지침을 제공합니다.
한계점: 모델과 인간의 인지 과정이 완벽하게 일치하지 않으므로, 인간의 인지 과정을 모델에 직접 적용하는 데에는 한계가 있습니다. 분석에 사용된 과제의 수가 제한적이며, 더욱 다양한 유형의 과제에 대한 추가 연구가 필요합니다. 특정 모델과 프롬프트에 대한 결과이므로, 일반화에는 주의가 필요합니다.
👍