Sign In

Demystifying the Roles of LLM Layers in Retrieval, Knowledge, and Reasoning

Created by
  • Haebom
Category
Empty

저자

Xinyuan Song, Keyu Wang, PengXiang Li, Lu Yin, Shiwei Liu

개요

본 논문은 대규모 언어 모델(LLM)의 깊은 층이 표현 학습에 기여하는 정도에 대한 기존 연구의 한계를 지적하고, 다양한 평가 방법, 작업 유형, 모델 아키텍처를 통해 깊이 활용도를 체계적으로 연구한다. 그 결과, 초기 층이 중요하지만, 생성 기반 평가에서는 중간 및 깊은 층이 추론과 장거리 일관성을 유지하는 데 필수적임을 밝혀냈다. 또한, 지식과 검색은 얕은 층에 집중되어 있고, 추론 정확도는 깊은 층에 크게 의존하지만, 증류를 통해 재구성될 수 있음을 확인했다.

시사점, 한계점

깊은 층의 기여도는 평가 설정에 따라 크게 다르다.
확률 기반 메트릭에서는 대부분의 층을 제거해도 성능 저하가 크지 않지만, 생성 기반 평가에서는 중간 및 깊은 층이 중요.
지식과 검색은 얕은 층에 집중되어 있고, 추론 정확도는 깊은 층에 의존한다.
증류를 통해 추론 능력을 재구성할 수 있다.
LLM의 깊이 활용은 매우 이질적이며 상황에 따라 다르므로, 작업, 메트릭, 모델을 고려한 관점이 필요하다.
👍