Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Reinforcement Learning Improves Traversal of Hierarchical Knowledge in LLMs

Created by
  • Haebom
Category
Empty

저자

Renfei Zhang, Manasa Kaniselvan, Niloofar Mireshghallah

개요

강화 학습(RL)이 언어 모델의 추론 및 일반화 능력을 향상시키는 과정에서 기억된 지식을 저하시킨다는 통념에 반하여, 본 연구는 RL이 계층적 지식 구조(예: 의료 코드)를 탐색해야 하는 지식 회상 태스크에서 기본 모델 및 지도 학습된 미세 조정(SFT) 모델보다 일관되게 우수한 성능을 보임을 관찰했다. 이는 RL이 새로운 데이터를 습득한 것이 아니라 모델 내 기존 지식 계층을 탐색하고 검색하는 절차적 기술을 향상시킨 결과라고 가설을 세웠다. 구조화된 프롬프팅을 통해 SFT 모델의 성능 격차를 상당 부분 줄일 수 있으며, RL 모델이 심층 검색 태스크에서 정확한 절차적 경로를 더 잘 기억한다는 것을 발견했다. 또한 활성화 분석을 통해 RL이 지식 표현 자체보다는 모델의 지식 탐색 방식을 주로 변화시킨다는 것을 확인했다.

시사점, 한계점

RL은 언어 모델의 지식 회상 능력을 향상시킬 수 있으며, 특히 계층적 지식을 다루는 태스크에서 유용하다.
구조화된 프롬프팅은 SFT 모델의 성능을 향상시켜 RL 모델과의 격차를 줄일 수 있다.
RL은 지식 표현보다는 지식 탐색 방식을 주로 변화시킨다.
본 연구는 특정 지식 도메인(의료 코드)에 초점을 맞추고 있으며, 다른 도메인에 대한 일반화 가능성은 추가 연구가 필요하다.
활성화 분석은 모델 내부의 변화를 이해하는 데 도움이 되지만, RL의 정확한 메커니즘을 완전히 밝히는 데는 추가적인 분석이 필요하다.
👍