Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Beyond Semantics: The Unreasonable Effectiveness of Reasonless Intermediate Tokens

Created by
  • Haebom

저자

Kaya Stechly, Karthik Valmeekam, Atharva Gundawar, Vardhan Palod, Subbarao Kambhampati

개요

본 논문은 대규모 추론 모델의 최근 성공이 Chain of Thought (CoT) 및 기본 LLM에서 샘플링된 CoT에 대한 훈련 과정의 승리로 해석되는 것에 대해 비판적으로 검토합니다. 연구진은 중간 토큰의 의미(흔히 "생각" 또는 추론 흔적으로 의인화되고 백트래킹, 자기 검증과 같은 행동을 보이는 것으로 주장됨)가 실제로 모델 성능에 어떻게 영향을 미치는지 조사합니다. 형식적으로 검증 가능한 추론 흔적과 솔루션에 대해 변환기 모델을 훈련시키고, 중간 단계와 최종 출력 모두 형식 솔버(본 연구에서는 A* 검색)의 결과와 일치하도록 제약합니다. 문제와 의도된 알고리즘의 의미를 형식적으로 해석함으로써 솔루션 정확도뿐만 아니라 중간 흔적의 정확성도 체계적으로 평가하여 후자가 전자에 인과적으로 영향을 미치는지 평가합니다. 솔루션 전용 기준선에 비해 상당한 개선에도 불구하고, 완전히 정확한 흔적에 대해 훈련된 모델조차도 정확한 솔루션에 도달할 때 유효하지 않은 추론 흔적을 생성하는 것을 확인했습니다. 흔적 정확도가 솔루션 정확도와 느슨하게만 연결되어 있음을 더 보여주기 위해, 연구진은 각각 쌍을 이루는 특정 문제와 관련이 없는 잡음이 포함된 손상된 흔적에 대해 모델을 훈련시켰는데, 성능이 정확한 데이터로 훈련된 모델과 크게 일치할 뿐만 아니라 경우에 따라 개선되고 분포 외 작업에서 더 강력하게 일반화될 수 있음을 발견했습니다. 이러한 결과는 중간 토큰 또는 "Chain of Thought"가 예측 가능한 추론 행동을 유발한다는 가정에 의문을 제기하고, 그러한 출력을 의인화하거나 (대부분 정확한 형태에도 불구하고) 언어 모델에서 인간과 같은 또는 알고리즘적 행동의 증거로 과도하게 해석하는 것에 대해 경고합니다.

시사점, 한계점

시사점: LLM의 추론 과정에 대한 기존의 해석(CoT의 의인화된 해석)에 대한 비판적 검토를 제공하고, 중간 토큰의 정확성과 최종 솔루션의 정확성 간의 상관관계가 생각보다 약하다는 것을 보여줍니다. 이는 LLM의 추론 능력에 대한 과대 해석을 경계해야 함을 시사합니다. 정확한 추론 과정을 강제하는 훈련 방법의 효과에 대한 새로운 관점을 제시합니다.
한계점: A* 검색 알고리즘을 사용한 특정 문제 영역에 국한된 연구 결과입니다. 다른 알고리즘이나 문제 유형에 대한 일반화 가능성은 추가 연구가 필요합니다. 모델이 생성하는 "잘못된" 추론 흔적의 본질에 대한 심층적인 분석이 부족합니다. 다른 유형의 추론 모델이나 훈련 방법에 대한 연구가 필요합니다.
👍