Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Reasoning to Learn from Latent Thoughts

Created by
  • Haebom
Category
Empty

저자

Yangjun Ruan, Neil Band, Chris J. Maddison, Tatsunori Hashimoto

개요

본 논문은 언어 모델 사전 훈련의 컴퓨팅 확장이 인간이 작성한 텍스트의 증가 속도를 능가하여 데이터가 언어 모델 확장의 병목 현상이 될 것이라는 우려를 제기합니다. 이러한 데이터 제약 환경에서 사전 훈련의 확장을 지속하기 위해, 본 논문은 텍스트 생성 과정의 기저에 있는 잠재적인 생각을 명시적으로 모델링하고 추론하는 것이 사전 훈련 데이터 효율을 크게 향상시킬 수 있다고 제안합니다. 웹 텍스트를 장황한 인간의 사고 과정의 압축된 최종 결과로 보고, 잠재적인 생각에는 데이터 효율적인 학습에 중요한 맥락적 지식과 추론 단계가 포함되어 있다는 직관적인 접근 방식입니다. 수학에 대한 데이터 제약 지속적 사전 훈련을 통해 이 접근 방식의 효과를 실험적으로 입증합니다. 잠재적 생각을 추론하는 합성 데이터 접근 방식이 데이터 효율을 크게 향상시켜 동일한 양의 원시 데이터로 훈련하는 것보다 성능이 뛰어나다는 것을 보여줍니다 (MATH에서 5.7% → 25.4%). 또한, 강력한 교사 없이 잠재적 생각 추론을 보여주는데, 여기서 LM은 EM 알고리즘을 사용하여 훈련된 LM의 기능과 생각으로 확장된 사전 훈련 데이터의 품질을 반복적으로 향상시켜 자체 성능을 부트스트래핑합니다. 1B LM이 최소 3회 반복하여 성능을 부트스트래핑하고 원시 데이터로 훈련된 기준선보다 성능이 훨씬 뛰어나며, E-step을 수행할 때 추가적인 추론 계산으로 인한 이득이 증가한다는 것을 보여줍니다. 추론 확장 및 EM 반복으로 인한 이득은 데이터 제약 사전 훈련의 확장을 위한 새로운 기회를 제시합니다.

시사점, 한계점

시사점:
잠재적 사고 과정을 모델링하여 언어 모델 사전 훈련의 데이터 효율을 크게 향상시킬 수 있음을 보여줍니다.
EM 알고리즘을 활용한 자가 부트스트래핑 기법을 통해 강력한 교사 없이도 잠재적 사고 추론이 가능함을 제시합니다.
데이터 제약 환경에서 언어 모델 확장을 위한 새로운 가능성을 제시합니다.
합성 데이터를 활용한 사전 훈련 데이터 증강의 효과를 실험적으로 증명합니다.
한계점:
현재는 수학 문제 풀이에 대한 데이터 제약 사전 훈련에 집중되어 있어 다른 분야로의 일반화 가능성에 대한 추가 연구가 필요합니다.
EM 알고리즘의 수렴 속도 및 안정성에 대한 추가 분석이 필요합니다.
잠재적 사고의 정확한 정의 및 측정에 대한 명확한 기준이 부족할 수 있습니다.
대규모 언어 모델에 적용했을 때의 계산 비용 및 효율성에 대한 추가적인 연구가 필요합니다.
👍