Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Training with Pseudo-Code for Instruction Following

Created by
  • Haebom

저자

Prince Kumar, Rudra Murthy, Riyaz Bhat, Danish Contractor

개요

본 논문은 대규모 언어 모델(LLM)이 복합적인 지시사항을 따르는 데 어려움을 겪는 문제를 해결하기 위해, 지시사항을 의사 코드로 표현하여 LLM을 미세 조정하는 방법을 제안합니다. 의사 코드를 사용하여 지시사항을 재표현한 데이터로 LLM을 미세 조정함으로써, 모델이 지시사항을 더 잘 따르도록 합니다. 11개의 공개 벤치마크를 사용하여 5개의 다른 모델에 대한 실험을 수행한 결과, 의사 코드를 사용하여 훈련된 모델은 지시사항을 더 잘 따르는 동시에 수학적 추론 및 상식적 추론과 같은 다른 작업에 대한 성능도 유지하는 것을 확인했습니다. 지시사항 따르기 벤치마크에서 3~19%의 상대적 성능 향상을, 모든 작업에 걸쳐 평균 14%의 성능 향상을 관찰했습니다.

시사점, 한계점

시사점:
의사 코드를 활용한 LLM 미세 조정 방법이 지시사항 따르기 성능 향상에 효과적임을 실험적으로 증명.
수학적 추론 및 상식적 추론과 같은 다른 작업의 성능 저하 없이 지시사항 따르기 성능을 향상시킬 수 있음.
비전문가도 쉽게 사용할 수 있는 방법을 제시.
한계점:
제시된 방법의 효과를 다양한 LLM 아키텍처 및 규모에 대해 추가적으로 검증할 필요가 있음.
사용된 벤치마크의 한계로 인해 일반화 성능에 대한 추가 연구가 필요함.
의사 코드 생성의 자동화 및 최적화에 대한 추가 연구가 필요함.
👍