Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Uncovering Latent Chain of Thought Vectors in Language Models

Created by
  • Haebom
Category
Empty

저자

Jason Zhang, Scott Viteri

개요

본 논문은 언어 모델(LM)의 활성화 공간에서 표적화된 섭동이 복잡한 추론 패턴을 어떻게 인코딩하는지 조사합니다. LM 활성화에서 파생된 조향 벡터를 추론 시 LM에 주입하고, 이 벡터들이 자연어 프롬프트 없이도 LM에서 사고연쇄(CoT) 추론을 유도할 수 있는지 연구합니다. Llama3 8B Instruct와 Mistral 7B v0.2 Instruct를 대상으로 GSM8k, MMLU, AGI Eval, ARC AI2 등 여러 추론 벤치마크에서 활성화 공간 개입이 기존 CoT 프롬프팅과 비교하여 경쟁력 있거나, 심지어 더 우수한 성능을 달성함을 보여줍니다. 이러한 결과는 신경망 활성화가 추론 패턴을 인코딩할 수 있으며, 모델 동작 조정을 위한 도구로서 활성화 공간 조작의 새로운 응용 분야를 제공함을 시사합니다.

시사점, 한계점

시사점:
LM 활성화 공간 조작을 통해 자연어 프롬프트 없이도 CoT 추론을 유도할 수 있음을 보여줌.
기존 CoT 프롬프팅보다 경쟁력 있거나 우수한 성능을 달성.
신경망 활성화가 추론 패턴을 인코딩할 수 있음을 시사.
모델 동작 조정을 위한 새로운 방법론 제시.
한계점:
특정 LM 모델과 벤치마크에 대한 결과이므로 일반화 가능성에 대한 추가 연구 필요.
조향 벡터 생성 및 주입 방법의 최적화에 대한 추가 연구 필요.
활성화 공간 조작의 메커니즘에 대한 더 깊은 이해 필요.
👍