Bayesian Teaching Enables Probabilistic Reasoning in Large Language Models
Created by
Haebom
저자
Linlu Qiu, Fei Sha, Kelsey Allen, Yoon Kim, Tal Linzen, Sjoerd van Steenkiste
개요
대규모 언어 모델(LLM)을 기반으로 하는 인공지능 에이전트는 사용자와 상호 작용하고 세상을 인식하기 위해 내부 표현을 구성하고 확률적 신념을 형성해야 합니다. 이 논문은 LLM이 베이즈 추론 프레임워크를 따르지 않으며, 이에 따라 정보가 추가되어도 예측이 개선되지 않는다는 점을 보여줍니다. 이를 해결하기 위해 LLM이 정규 베이즈 모델의 예측을 모방하도록 훈련하여 베이즈 방식으로 추론하도록 가르쳤습니다. 그 결과, 훈련된 추천 작업에서 LLM의 성능이 크게 향상되었을 뿐만 아니라 다른 작업으로의 일반화도 가능했습니다. 이는 LLM이 예시로부터 추론 능력을 효과적으로 학습하고 새로운 도메인에 이러한 기술을 일반화할 수 있음을 시사합니다.
시사점, 한계점
•
LLM은 베이즈 추론 프레임워크에 따라 신념을 업데이트하지 않아, 정보가 증가해도 예측 개선이 제한적임.
•
LLM이 베이즈 추론을 모방하도록 훈련함으로써, 특정 작업(예: 추천)에서의 성능을 크게 향상시키고 다른 작업으로의 일반화를 달성함.