Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

New Encoders for German Trained from Scratch: Comparing ModernGBERT with Converted LLM2Vec Models

Created by
  • Haebom

저자

Julia Wunderle, Anton Ehrmanntraut, Jan Pfister, Fotis Jannidis, Andreas Hotho

개요

본 논문은 디코더 기반 LLM의 등장에도 불구하고 효율적인 독일어 NLP 및 NLU를 위해 인코더가 여전히 중요하다는 점을 강조하며, 동일한 데이터 및 학습 제약 조건 하에서 높은 품질의 독일어 인코더를 얻기 위한 두 가지 방법, 즉 1) 처음부터 학습과 2) LLM2Vec을 통한 디코더 변환을 연구합니다. ModernGBERT (134M, 1B) 및 LLaMmleinVec (120M, 1B, 7B)을 소개하며, 컨텍스트 길이를 8,192 토큰으로 확장합니다. ModernGBERT 1B는 SuperGLEBer에서 최고 성능을 달성했으며, 독일어 MTEB에서 감독 학습 후 LLaMmleinVec 7B 모델에 근접한 성능을 보입니다. 모든 모델, 체크포인트, 데이터 세트 및 전체 학습 기록을 공개하고, 인코더에 적합한 QA-NIAH 평가를 도입합니다.

시사점, 한계점

시사점:
파라미터 효율성과 지연 시간이 중요한 경우 처음부터 학습된 인코더가 우수합니다.
사전 훈련된 디코더가 있고 계산 능력이 제한적인 경우 변환이 효과적인 대안이 될 수 있습니다.
ModernGBERT 1B는 SuperGLEBer에서 새로운 최고 성능을 달성했습니다.
모든 모델, 체크포인트, 데이터 세트 및 학습 기록을 공개하여 연구에 기여합니다.
한계점:
LLaMmleinVec 7B 모델은 ModernGBERT 1B 모델보다 파라미터 수가 훨씬 많지만 SuperGLEBer에서 성능이 더 낮습니다.
해당 연구는 연구 전용 RAIL 라이선스로 배포됩니다.
👍