대규모 언어 모델(LLM)의 성공에 필수적인 사후 학습(Post-training)의 내부적 변화를 이해하기 위해, 본 논문은 기본 모델과 사후 학습 모델을 4가지 관점에서 기계적으로 비교 분석했다. 연구 결과는 사후 학습이 사실적 지식 저장 위치를 변경하지 않고 기존 지식 표현을 적응시키면서 새로운 지식 표현을 개발하며, 진실성과 거절은 은닉 표현 공간에서 벡터로 표현될 수 있음을 보여준다. 또한, 진실성 방향은 기본 모델과 사후 학습 모델 간 유사성이 높고 간섭에 효과적으로 이전될 수 있지만, 거절 방향은 다르며 제한적인 전달성을 보였다. 마지막으로, 기본 모델과 사후 학습 모델 간 신뢰도 차이는 엔트로피 뉴런에 기인하지 않았다. 이 연구는 사후 학습 중 보존되고 변경되는 근본적인 메커니즘에 대한 통찰력을 제공하며, 모델 조작과 같은 후속 작업과 해석 가능성 및 LLM 사후 학습 연구에 기여할 수 있다.