모로코 아랍어(다리자)에 대한 오픈소스 대규모 언어 모델(LLM)의 부족 문제를 해결하기 위해, 양보다 질에 중점을 둔 전략을 사용하여 다리자 언어에 대한 성능을 향상시키는 연구를 진행했습니다. LIMA, DEITA, TULU 세 가지 지시어 세트를 다리자어로 번역하고, 영어 원본 20개를 유지하며 수학, 코딩, 과학 관련 프롬프트를 추가했습니다. 5,000개의 혼합 지시어로 LoRA를 사용하여 Gemma 3-4B를 미세 조정한 결과, 다리자 MMLU 점수가 32.8에서 42.7로 향상되었고, 추론 집약적인 TULU 부분을 추가하여 47.5까지 향상되었습니다. 같은 방법으로 Gemma 3-27B를 미세 조정한 GemMaroc-27B는 다리자 MMLU에서 Atlas-Chat과 동등한 성능(61.6)을 달성했고, 다리자 상식 추론에서 Atlas-Chat(48.4)보다 높은 60.5점을 기록했습니다. GemMaroc은 수학 및 일반 추론 능력을 유지하면서 GSM8K 및 영어 벤치마크에서는 최소한의 성능 변화만 보였습니다. 전체 모델 학습에는 48 GPU 시간만 소요되었으며, 코드, 데이터 및 체크포인트를 공개하여 교육, 공공 서비스 및 일상적인 디지털 상호 작용에서 다리자 중심 응용 프로그램을 촉진하고자 합니다.