Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

CAT: Causal Attention Tuning For Injecting Fine-grained Causal Knowledge into Large Language Models

Created by
  • Haebom

저자

Kairong Han, Wenshuo Zhao, Ziyu Zhao, JunJian Ye, Lujia Pan, Kun Kuang

개요

본 논문은 대규모 언어 모델(LLM)이 인과적 지식을 효과적으로 활용하여 예측 및 생성을 수행할 수 있는지에 대한 질문을 제기합니다. 대규모 데이터로 직접 학습된 LLM은 진정한 인과 관계보다는 허위 상관관계를 학습하여 특히 분포 외(OOD) 시나리오에서 성능이 저하되는 것을 실험적으로 확인했습니다. 이를 해결하기 위해, 본 논문은 주의 메커니즘에 세분화된 인과적 지식을 주입하는 새로운 방법인 Causal Attention Tuning (CAT)을 제안합니다. CAT은 인간의 사전 지식을 활용하여 토큰 수준의 인과 신호를 자동으로 생성하고, 재주의(Re-Attention) 메커니즘을 도입하여 훈련을 유도함으로써 모델이 인과 구조에 집중하도록 돕고 주의 점수의 노이즈와 편향을 완화합니다. 제안된 Spurious Token Game (STG) 벤치마크와 여러 하류 작업에 대한 실험 결과는 CAT이 예측에 인과적 지식을 효과적으로 활용하고 OOD 시나리오에서도 강력함을 보여줍니다. CAT은 STG 데이터셋에서 평균 5.76% 향상, 하류 작업에서 1.56% 향상을 달성했습니다. 특히 Llama-3.1-8B 모델의 STG_M에서 OOD 성능은 64.5%에서 90.5%로, Qwen 모델의 STG_H에서 OOD 성능은 25.4%에서 55.9%로 향상되었습니다.

시사점, 한계점

시사점:
LLM의 인과적 추론 능력 향상에 대한 새로운 접근 방식인 CAT 제시.
인간의 사전 지식을 활용한 자동화된 인과 신호 생성 파이프라인 개발.
재주의 메커니즘을 통한 주의 메커니즘 개선 및 노이즈/편향 완화.
STG 벤치마크 및 다양한 하류 작업에서 성능 향상을 실험적으로 검증.
OOD 성능 향상에 대한 뚜렷한 효과 확인.
한계점:
제안된 STG 벤치마크의 일반화 가능성에 대한 추가 연구 필요.
더욱 다양한 LLM 및 하류 작업에 대한 추가 실험 필요.
인간의 사전 지식에 대한 의존성으로 인한 잠재적 편향 문제 고려.
CAT의 계산 비용 및 효율성에 대한 추가 분석 필요.
👍