Cet article présente une méthode de détection de termes spécialisés et de personnalisation des explications afin de permettre à des lecteurs d'horizons divers de comprendre des documents spécialisés. Les approches de personnalisation spécifiques à chaque utilisateur nécessitant un effort d'annotation et des ressources de calcul importants, cet article explore des stratégies de personnalisation efficaces et évolutives. Plus précisément, nous explorons deux stratégies : le personnalisation légère utilisant l'adaptation de bas rang (LoRA) sur des modèles open source et l'invite personnalisée, qui ajuste le comportement du modèle au moment de l'inférence. Nous étudions également une approche hybride combinant des données d'annotation limitées avec des signaux d'arrière-plan utilisateur issus d'un apprentissage non supervisé. Les résultats expérimentaux montrent que le modèle LoRA personnalisé surpasse GPT-4 de 21,4 % en score F1 et le modèle de référence Oracle le plus performant de 8,3 %. De plus, il atteint des performances similaires en utilisant seulement 10 % des données d'apprentissage annotées, démontrant ainsi sa praticabilité même dans des environnements aux ressources limitées.