Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

xGen-small Technical Report

Created by
  • Haebom

저자

Erik Nijkamp, Bo Pang, Egor Pakhomov, Akash Gokul, Jin Qu, Silvio Savarese, Yingbo Zhou, Caiming Xiong

개요

xGen-small은 긴 문맥을 다루는 데 최적화된 4B 및 9B 파라미터 크기의 Transformer 디코더 모델 계열입니다. 도메인 균형 및 주파수 인식 데이터 큐레이션, 품질 어닐링 및 최대 128k 토큰까지의 길이 확장을 포함하는 다단계 사전 훈련, 그리고 지도 학습 미세 조정, 선호도 학습, 온라인 강화 학습을 통한 목표 지향적 사후 훈련을 결합한 수직 통합 파이프라인을 사용합니다. xGen-small은 다양한 작업, 특히 수학 및 코딩 도메인에서 강력한 성능을 제공하며, 긴 문맥 벤치마크에서 뛰어난 성능을 보입니다.

시사점, 한계점

시사점:
긴 문맥 응용 프로그램을 위한 효율적이고 강력한 Transformer 모델을 제시합니다.
수학 및 코딩 도메인에서 우수한 성능을 보여줍니다.
다양한 사전 훈련 및 사후 훈련 기법을 통합하여 성능을 향상시켰습니다.
128k 토큰까지의 긴 문맥 처리가 가능합니다.
한계점:
특정 도메인(수학 및 코딩)에 대한 편향이 존재할 수 있습니다.
모델의 크기가 커서 메모리 및 연산 자원이 많이 필요할 수 있습니다.
제시된 결과의 일반화 성능에 대한 추가적인 검증이 필요합니다.
구체적인 벤치마크 결과 및 비교 대상 모델에 대한 정보가 부족합니다.
👍