本文探讨了数据和参数高效的阿拉伯方言识别 (ADI) 方法。具体而言,我们研究了各种软提示策略,例如前缀调整、提示调整、P 调整和 P 调整 V2,以及 LoRA 重参数化。对于数据高效的策略,我们通过零样本和少样本推理分析了使用硬提示的大规模语言模型 (LLM) 的方言识别能力。对于参数高效的 PEFT 方法,我们使用阿拉伯语专用编码器模型在多个常用数据集上进行了实验。我们还分析了开源解码器专用模型、通用多语言模型 (Phi-3.5) 和阿拉伯语专用模型 (SILMA) 的 n 样本推理。我们观察到,LLM 通常难以区分少样本或零样本设置中的细微方言差异。软提示编码器变体表现更佳,而基于 LoRA 的微调模型实现了最佳性能,优于完全微调。