Este artículo presenta un método para detectar términos especializados y personalizar explicaciones, lo que permite a lectores con diversos antecedentes comprender documentos especializados. Dado que los enfoques actuales de ajuste fino específicos para cada usuario requieren un esfuerzo de anotación significativo y recursos computacionales, este artículo explora estrategias de personalización eficientes y escalables. Específicamente, exploramos dos estrategias: ajuste fino ligero mediante Adaptación de Bajo Rango (LoRA) en modelos de código abierto e indicaciones personalizadas, que ajustan el comportamiento del modelo en el momento de la inferencia. También estudiamos un enfoque híbrido que combina datos de anotación limitados con señales de fondo del usuario provenientes del aprendizaje no supervisado. Los resultados experimentales muestran que el modelo LoRA personalizado supera a GPT-4 en un 21,4 % en la puntuación F1 y al modelo base de Oracle con mejor rendimiento en un 8,3 %. Además, logra un rendimiento similar utilizando solo el 10 % de los datos de entrenamiento anotados, lo que demuestra su viabilidad incluso en entornos con recursos limitados.