본 논문은 아랍어 방언 식별(ADI)을 위한 데이터 효율적 및 매개변수 효율적 접근 방식을 탐구합니다. 특히, prefix-tuning, prompt-tuning, P-tuning, P-tuning V2와 같은 다양한 소프트 프롬프팅 전략과 LoRA 재매개변수화를 조사합니다. 데이터 효율적인 전략으로는 제로샷 및 퓨샷 추론을 통한 하드 프롬프팅을 사용하여 대규모 언어 모델(LLM)의 방언 식별 능력을 분석합니다. 매개변수 효율적인 PEFT 접근 방식을 위해 여러 주요 데이터 세트에서 아랍어 특정 인코더 모델을 사용하여 실험을 수행했습니다. 또한 오픈소스 디코더 전용 모델, 일반적인 다국어 모델(Phi-3.5), 아랍어 특정 모델(SILMA)에서 n-샷 추론을 분석했습니다. LLM은 일반적으로 퓨샷 또는 제로샷 설정에서 방언의 미묘한 차이를 구별하는 데 어려움을 겪는다는 것을 관찰했습니다. 소프트 프롬프트된 인코더 변형이 더 나은 성능을 보였으며, LoRA 기반 미세 조정 모델이 전체 미세 조정을 능가하는 최고의 성능을 보였습니다.