Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

CARE: Turning LLMs Into Causal Reasoning Expert

Created by
  • Haebom
Category
Empty

저자

Juncheng Dong, Yiling Liu, Ahmed Aloui, Vahid Tarokh, David Carlson

개요

대규모 언어 모델(LLM)은 다양한 추론 및 생성 작업에서 인상적인 능력을 보여주지만, 인과 관계를 식별하는 능력은 부족하다는 연구 결과가 있다. 본 논문에서는 LLM이 관측 데이터 대신 변수 이름의 의미에 의존하여 인과 관계를 파악하려 한다는 점을 발견했다. 기존 인과 발견 알고리즘의 출력을 프롬프트로 제공했지만, 오히려 성능이 저하되는 현상을 확인했다. 이를 해결하기 위해, 지도 학습을 통해 LLM이 기존 인과 발견 알고리즘의 출력을 효과적으로 활용하도록 돕는 CARE 프레임워크를 제안했다. CARE를 통해 미세 조정된 Qwen2.5-1.5B 모델은 기존 인과 발견 알고리즘과 더 큰 규모의 최신 LLM보다 뛰어난 성능을 보였다.

시사점, 한계점

LLM의 인과 추론 능력 부족을 지적하고, 그 원인을 분석함.
기존 인과 발견 알고리즘의 출력을 활용하는 새로운 프레임워크, CARE를 제안함.
CARE를 통해 소규모 모델(Qwen2.5-1.5B)이 대규모 모델보다 우수한 성능을 달성함을 입증함.
LLM이 외부 알고리즘의 도움을 받아 인과 추론 능력을 향상시킬 수 있음을 보여줌.
LLM이 기존 알고리즘의 출력을 직접 활용하는 방식의 한계를 보여줌.
CARE 프레임워크의 일반화 가능성에 대한 추가 연구가 필요함.
다양한 데이터셋 및 인과 관계 유형에 대한 평가 필요.
CARE가 다른 LLM 및 작업 환경에서도 효과적인지 추가 검증 필요.
👍