Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Does "Reasoning" with Large Language Models Improve Recognizing, Generating, and Reframing Unhelpful Thoughts?

Created by
  • Haebom

저자

Yilin Qi, Dong Won Lee, Cynthia Breazeal, Hae Won Park

개요

본 논문은 대규모 언어 모델(LLM)의 추론 능력을 활용하여 인지 행동 치료(CBT)의 핵심 요소인 인지 재구성을 향상시키는 방법을 연구합니다. 특히, 사전 훈련된 추론 LLM과 Chain of Thought(CoT), 자기 일관성과 같은 증강 추론 전략을 비교 분석하여 부정적인 경험에 대한 긍정적 의미 부여를 돕는 인지 왜곡의 인식, 생성, 재구성 능력 향상에 미치는 영향을 평가합니다. GPT-3.5와 같은 오래된 LLM에 증강 추론 방법을 적용했을 때, 최첨단 사전 훈련된 추론 모델보다 인지 재구성 작업 수행 능력이 더 뛰어남을 확인하였습니다.

시사점, 한계점

시사점:
LLM의 추론 능력을 활용하여 CBT 및 인지 재구성 효과를 높일 수 있는 가능성 제시.
증강 추론 방법(CoT, 자기 일관성)이 오래된 LLM의 성능을 향상시키는 데 효과적임을 증명.
LLM 기반 인지 재구성 도구 개발의 가능성을 제시.
한계점:
본 연구는 특정 LLM과 데이터셋에 국한된 결과일 수 있음.
실제 임상 환경에서의 효과 검증은 추가 연구가 필요함.
윤리적 고려 사항 (예: LLM의 오류로 인한 잘못된 정보 제공)에 대한 논의 부족.
다양한 유형의 인지 왜곡에 대한 일반화 가능성 검토 필요.
👍