Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Latent Chain-of-Thought? Decoding the Depth-Recurrent Transformer

Created by
  • Haebom

저자

Wenquan Lu, Yuechuan Yang, Kyle Lee, Yanshu Li, Enqi Liu

개요

Huginn-3.5B, depth-recurrent Transformer 모델이 해석 가능한 잠재적 CoT (Chain-of-thought) 추론 구조를 나타내는지 조사한다. Logit Lens 및 Coda Lens를 포함한 다양한 프로빙 기술을 사용하여 산술 작업에 대한 모델의 내부 동작을 검사한다. 최종 및 중간 결과 토큰의 랭크 궤적을 추적하여 해석 가능한 잠재 CoT의 증거가 제한적임을 발견한다. 또한, 재귀 블록 간에 상당한 프로빙 불일치가 있으며, 은닉 상태의 해석 가능성은 레이어 인덱스와 디코딩 방법에 따라 크게 달라짐을 확인한다. 재귀 깊이 증가가 미미한 이점만 가져다주고, 명시적으로 추론 단계를 외부화하는 모델에 미치지 못함을 경험적으로 보여준다.

시사점, 한계점

시사점:
Huginn-3.5B는 제한적인 해석 가능한 잠재 CoT 추론을 보여준다.
재귀 블록 간 프로빙의 불일치가 존재하며, 은닉 상태의 해석 가능성은 레이어 인덱스와 디코딩 방식에 의존한다.
재귀 깊이 증가는 성능 향상에 제한적이다.
한계점:
잠재 CoT를 포착하는 데 있어 재귀적 트랜스포머의 효과에 한계가 있다.
내부 표현의 일관성 및 해석 가능성에 대한 추가 연구가 필요하다.
명시적 추론 단계를 외부화하는 모델과의 성능 차이가 존재한다.
👍