[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Small LLMs Do Not Learn a Generalizable Theory of Mind via Reinforcement Learning

Created by
  • Haebom

저자

Sneheel Sarangi, Hanan Salam

개요

본 논문은 사후 강화학습(RL) 기법을 통해 대규모 언어 모델(LLM)에 인간과 같은 미묘한 사회적 지능, 즉 이론적 마음(ToM)을 부여할 수 있는지 여부를 조사한다. 다양한 ToM 데이터셋(HiToM, ExploreToM, FANToM)을 사용하여 소규모 LLM을 훈련하고, 홀드아웃 데이터셋(예: OpenToM)에서 일반화 능력을 평가하는 체계적인 실험을 수행하였다. 그 결과, 소규모 LLM은 일반적인 ToM 능력을 습득하는 데 어려움을 겪는다는 것을 발견하였다. 훈련 데이터에 대한 성능은 향상되었지만, 특징이 다른 보이지 않는 ToM 과제로의 전이에는 실패하였다. 또한, 장기간의 RL 훈련은 모델이 훈련 데이터셋의 통계적 패턴을 '해킹'하여 도메인 내 데이터의 성능은 크게 향상되지만, 도메인 외부 과제의 성능에는 변화가 없거나 저하되는 결과를 초래한다는 것을 보여주었다. 이는 학습된 행동이 진정한 추상적인 ToM 능력의 습득이 아니라 일종의 좁은 과적합임을 시사한다.

시사점, 한계점

시사점: 소규모 LLM에서 강화학습을 통한 ToM 능력 습득의 어려움과, 단순한 과적합 가능성을 제시한다. RL 기반 ToM 학습의 한계를 명확히 보여줌으로써 향후 연구 방향을 제시한다.
한계점: 실험에 사용된 LLM의 규모가 작아, 대규모 LLM으로 확장했을 때 결과가 동일할지 여부는 불확실하다. ToM 능력의 정의 및 평가 방식에 대한 추가적인 논의가 필요하다. 다양한 RL 기법이나 보상 함수의 적용에 대한 추가적인 연구가 필요하다.
👍