Cet article présente le réglage fin contextuel, une nouvelle méthode d'optimisation des modèles linguistiques à grande échelle (MLH). En étendant les techniques d'incitation existantes, nous guidons le processus d'apprentissage des LMH à l'aide d'incitations directives imitant les stratégies cognitives humaines. Cette approche vise à aider le modèle à mieux comprendre et interpréter les connaissances spécifiques à un domaine, améliorant ainsi sa capacité à s'ajuster rapidement sur de nouveaux ensembles de données, tels que ceux des secteurs de la santé et de la finance. Les résultats expérimentaux démontrent que la méthode proposée améliore la vitesse et les performances d'optimisation des LMH.