Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Large Language Models are Locally Linear Mappings

Created by
  • Haebom

저자

James R. Golden

개요

본 논문은 여러 개방형 가중치를 가진 대규모 언어 모델(LLM)의 추론 연산을 모델 가중치를 수정하거나 출력 예측을 변경하지 않고도 정확하게 동등한 선형 시스템에 매핑할 수 있음을 보여줍니다. 국소적 또는 조각별 선형성을 보이는 이미지 확산 모델의 기법을 확장하여, 다음 토큰 예측에 대한 특정 입력 시퀀스와 관련된 기울기 계산을 전략적으로 변경하여 모델의 야코비안이 선형 시스템으로 정확하게 순방향 예측을 재현하도록 합니다. Llama 3, Gemma 3, Qwen 3, Phi 4, Mistral Ministral 및 OLMo 2(최대 Llama 3.3 70B Q4) 모델에서 이 접근 방식을 보여주고, 분리된 야코비안의 특이값 분해를 통해 이러한 LLM이 가장 가능성이 높은 출력 토큰과 관련된 개념을 디코딩하는 많은 가장 큰 특이 벡터가 있는 매우 저차원 부분 공간에서 작동함을 보여줍니다. 이 접근 방식을 통해 각 연속 레이어(및 해당 어텐션 및 MLP 구성 요소)의 작동을 거의 정확한 선형 시스템으로 조사하고 의미 개념의 출현을 관찰할 수도 있습니다. 본 논문은 표현력과 전역적 비선형성에도 불구하고, 최신 LLM은 내부 표현에 대한 통찰력을 제공하고 다음 토큰 예측 프로세스에서 해석 가능한 의미 구조를 드러내는 거의 정확한 국소 선형 분해를 통해 해석될 수 있음을 보여줍니다.

시사점, 한계점

시사점:
개방형 가중치를 가진 LLM의 추론 과정을 선형 시스템으로 매핑 가능함을 증명.
LLM이 저차원 부분 공간에서 작동하며, 주요 특이 벡터가 의미적 개념과 관련됨을 밝힘.
각 레이어의 작동을 거의 정확한 선형 시스템으로 분석하여 의미 개념의 출현 관찰 가능.
LLM의 내부 표현에 대한 해석 가능성을 높임.
다음 토큰 예측 과정에서의 의미 구조를 드러냄.
한계점:
제시된 방법이 모든 LLM에 적용 가능한지에 대한 추가 연구 필요.
선형 시스템 매핑의 정확도와 한계에 대한 명확한 정의 및 분석 필요.
저차원 부분 공간에서의 작동이 LLM의 모든 기능을 포착하는지에 대한 추가 검증 필요.
다양한 크기와 아키텍처의 LLM에 대한 일반화 가능성에 대한 추가 연구 필요.
👍