본 논문에서는 자원 제약 환경에서 중요한 역할을 하는 인코더 모델에 초점을 맞추어, 독일어를 위한 새로운 인코더 모델들을 소개합니다. ModernBERT의 아키텍처 혁신을 통합하여 처음부터 학습된 ModernGBERT (134M, 1B) 모델과, 독일어 디코더 전용 모델에서 LLM2Vec을 통해 변환된 LLaMmlein2Vec (120M, 1B, 7B) 모델을 제시합니다. 자체 학습된 인코더와 변환된 디코더 간의 성능을 비교하기 위해 자연어 이해, 텍스트 임베딩, 장문 추론 작업에 대한 벤치마킹을 수행했습니다. 결과적으로 ModernGBERT 1B가 기존 최첨단 독일어 인코더 및 LLM2Vec을 통해 변환된 인코더보다 성능과 매개변수 효율성 측면에서 우수한 성능을 보였습니다. 모든 모델, 학습 데이터, 체크포인트 및 코드는 공개적으로 제공됩니다.