Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

How Post-Training Reshapes LLMs: A Mechanistic View on Knowledge, Truthfulness, Refusal, and Confidence

Created by
  • Haebom
Category
Empty

저자

Hongzhe Du, Weikai Li, Min Cai, Karim Saraipour, Zimin Zhang, Himabindu Lakkaraju, Yizhou Sun, Shichang Zhang

개요

대규모 언어 모델(LLM)의 성공에 필수적인 사후 학습(Post-training)의 내부적 변화를 이해하기 위해, 본 논문은 기본 모델과 사후 학습 모델을 4가지 관점에서 기계적으로 비교 분석했다. 연구 결과는 사후 학습이 사실적 지식 저장 위치를 변경하지 않고 기존 지식 표현을 적응시키면서 새로운 지식 표현을 개발하며, 진실성과 거절은 은닉 표현 공간에서 벡터로 표현될 수 있음을 보여준다. 또한, 진실성 방향은 기본 모델과 사후 학습 모델 간 유사성이 높고 간섭에 효과적으로 이전될 수 있지만, 거절 방향은 다르며 제한적인 전달성을 보였다. 마지막으로, 기본 모델과 사후 학습 모델 간 신뢰도 차이는 엔트로피 뉴런에 기인하지 않았다. 이 연구는 사후 학습 중 보존되고 변경되는 근본적인 메커니즘에 대한 통찰력을 제공하며, 모델 조작과 같은 후속 작업과 해석 가능성 및 LLM 사후 학습 연구에 기여할 수 있다.

시사점, 한계점

시사점:
사후 학습은 지식 저장 위치를 변경하지 않고 기존 지식 표현을 적응시키며 새로운 지식 표현을 개발한다.
진실성 방향은 모델 간 유사성이 높고 간섭에 효과적으로 이전 가능하며, 모델 조작에 활용될 수 있다.
사후 학습을 통해 모델의 동작을 이해하고, 모델의 특정 측면을 제어하는 데 도움이 될 수 있다.
한계점:
거절 방향은 모델 간 차이가 크고 이전성이 제한적이다.
신뢰도 차이는 엔트로피 뉴런으로 설명되지 않는다.
연구 결과가 특정 모델 가족 및 데이터 세트에 국한될 수 있으며, 일반화 가능성에 대한 추가 연구가 필요하다.
👍