Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Sketch-of-Thought: Efficient LLM Reasoning with Adaptive Cognitive-Inspired Sketching

Created by
  • Haebom

저자

Simon A. Aytes, Jinheon Baek, Sung Ju Hwang

개요

본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 새로운 프롬프팅 기법인 Sketch-of-Thought(SoT)를 제안합니다. 기존의 Chain-of-Thought(CoT) 프롬프팅은 중간 출력의 과도한 상세 설명으로 인해 계산 비용이 증가하는 단점이 있습니다. SoT는 인지적으로 영감을 받은 추론 패러다임과 언어적 제약 조건을 통합하여 토큰 사용량을 줄이면서 추론 정확도를 유지하는 것을 목표로 합니다. 세 가지 패러다임(개념적 연결, 청크 기호주의, 전문가 어휘)을 모듈화하여 유연하게 적용하고, 경량 라우팅 모델을 통해 테스트 시점에 적절한 패러다임을 동적으로 선택합니다. 다양한 도메인, 언어, 모달리티를 포함한 18개의 추론 데이터셋에 대한 실험 결과, SoT는 최대 84%의 토큰 감소를 달성하면서 정확도 손실은 최소화했습니다. 수학적 추론 및 다단계 추론과 같은 작업에서는 출력을 단축하면서 정확도를 향상시키기도 했습니다.

시사점, 한계점

시사점:
과도한 토큰 사용으로 인한 계산 비용 문제를 해결하는 효과적인 프롬프팅 기법 제시
다양한 추론 작업에 적용 가능한 유연하고 모듈화된 접근 방식 제시
토큰 사용량 감소와 동시에 추론 정확도 유지 또는 향상 가능성 확인
다양한 도메인, 언어, 모달리티에서 효과 검증
한계점:
제안된 세 가지 패러다임 이외의 다른 추론 유형에 대한 적용 가능성 및 효과에 대한 추가 연구 필요
경량 라우팅 모델의 성능 및 신뢰도에 대한 추가 분석 필요
특정 데이터셋에 대한 최적화 가능성으로 인한 일반화 성능 저하 가능성 존재
실제 응용 분야에서의 SoT의 실질적인 효용성에 대한 추가적인 평가 필요
👍