Cet article se concentre sur l'utilisation efficace de la méthode de réglage fin à paramètres efficaces (PEFT), en particulier de l'adaptation de bas rang (LoRA). La méthode LoRA traditionnelle présente des problèmes de lenteur de convergence et de perte de connaissances, que nous résolvons en améliorant la méthode d'initialisation LoRA. Contrairement aux travaux précédents qui se concentraient uniquement sur le réglage fin efficace ou la préservation des connaissances des LLM pré-entraînés, cet article propose la méthode LoRA contrainte par sous-espace (SC-LoRA) pour atteindre ces deux objectifs simultanément. SC-LoRA est conçue pour contraindre la sortie des adaptateurs LoRA entraînables à un sous-espace de faible dimension, afin de préserver au maximum les informations contextuelles des données de réglage fin et de minimiser celles des connaissances existantes. Cela permet aux pondérations d'entraînement de se concentrer sur les principales caractéristiques des données de réglage fin sans altérer les connaissances existantes. Grâce à une analyse théorique et à des résultats expérimentaux sur diverses sous-tâches, nous démontrons que SC-LoRA offre des performances de réglage fin supérieures et réduit significativement la perte de connaissances par rapport aux méthodes d'initialisation LoRA traditionnelles.