Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Learning Tractable Distributions Of Language Model Continuations

Created by
  • Haebom
Category
Empty

저자

Gwen Yidou-Weng, Ian Li, Anji Liu, Oliver Broadrick, Guy Van den Broeck, Benjie Wang

개요

본 논문은 sequence-level 제약 조건(예: 구문, 스타일 또는 안전)에 따라 텍스트를 생성하는 제어된 언어 생성에 대해 다룹니다. 특히, 미래 토큰에 의존하는 제약 조건을 처리하기 위해, 저자들은 풍부한 접두사 인코딩을 위한 기본 언어 모델과 정확한 연속 확률을 계산하는 고정된 추적 가능한 대리 모델을 결합하는 하이브리드 접근 방식인 Learning to Look Ahead (LTLA)를 제안합니다. LTLA는 단일 배치 HMM 업데이트와 대리 모델의 잠재 상태 prior에만 LM의 hidden representation을 조건화하여 효율성을 높입니다.

시사점, 한계점

시사점:
LTLA는 무조건부 HMM보다 더 높은 조건부 가능도를 달성합니다.
LTLA는 시각적 맥락을 인코딩할 수 없는 독립형 HMM이 있는 시각-언어 모델에 대한 연속 분포를 근사합니다.
LTLA는 제어된 생성 작업에서 유사한 유창성을 유지하면서 제약 조건 만족도를 향상시키며, 최소한의 추론 오버헤드를 가집니다.
한계점:
논문에 구체적인 한계점이 명시적으로 언급되어 있지 않음.
👍