Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

RLSF: Fine-tuning LLMs via Symbolic Feedback

Created by
  • Haebom

저자

Piyush Jha, Prithwish Jana, Pranavkrishna Suresh, Arnav Arora, Vijay Ganesh

개요

본 논문은 대규모 언어 모델(LLM)의 도메인 특정 추론 및 논리적 정합성 문제를 해결하기 위해, 기호 추론 도구(예: 증명기)로부터 세분화된 피드백을 활용하는 새로운 미세 조정 패러다임인 강화 학습을 통한 기호 피드백(RLSF)을 제시합니다. RLSF는 기호 도구가 생성한 다항식 크기의 인증서(예: 증명)를 사용하여 모델 출력의 오류를 식별하고 수정하여 미분 가능한 추론 시스템 없이 토큰 수준의 안내를 제공합니다. 이는 기호 추론과 LLM 미세 조정 간의 격차를 해소하여 도메인 특정 제약 조건과의 정밀한 정렬을 가능하게 하고 기존 보상 신호의 주요 한계를 해결합니다. 실험 결과, RLSF 기반의 LLM 미세 조정은 프로그램 합성, 세 가지 화학 작업 및 24 게임 풀이 등 다섯 가지 응용 프로그램에서 기존 접근 방식을 능가하며, 상대적으로 작은 LLM이 훨씬 더 큰 독점 모델보다 성능이 뛰어나다는 것을 보여줍니다.

시사점, 한계점

시사점:
기호 추론 도구를 활용한 새로운 LLM 미세 조정 패러다임(RLSF) 제시
기존 보상 신호의 한계를 극복하고 도메인 특정 제약 조건과의 정밀한 정렬 가능
상대적으로 작은 LLM이 대규모 독점 모델을 능가하는 성능 달성
다양한 응용 분야(프로그램 합성, 화학 작업, 게임 풀이 등)에서 성능 향상 확인
한계점:
RLSF의 적용 가능성은 기호 추론 도구의 가용성에 의존적일 수 있음
특정 도메인에 특화된 기호 추론 도구의 개발 및 통합 필요성
다양한 도메인 및 작업에 대한 일반화 성능 평가 추가 필요
👍