본 연구는 독립적으로 학습된 대규모 언어 모델(LLM) 간의 표현이 유사하게 수렴하는 경향을 조사하여, 이러한 모델 간의 실질적인 선형 정렬 가능성을 탐구합니다. 저자는 최종 은닉 상태 간의 아핀 변환을 학습하고 텍스트 생성, 임베딩 분류, 분포 외 탐지 등 다양한 작업에서 이러한 정렬의 성능을 실증적으로 평가합니다. 연구 결과, 모델 쌍 간의 성능이 대체로 유지되며, 특히 선형 정렬을 통해 독립적으로 학습된 모델 간의 텍스트 생성까지 가능함을 보여줍니다.