Este artículo presenta un estudio sobre la adaptación de modelos lingüísticos a gran escala (LLM) para preservar la privacidad en dominios sensibles (p. ej., salud mental). Para equilibrar la utilidad del modelo, la seguridad y la estricta confidencialidad, proponemos FedMentor, un marco de ajuste fino federado que integra la Adaptación de Bajo Rango (LoRA) y la privacidad diferencial (PD) con reconocimiento de dominio. FedMentor permite a cada cliente (dominio) aplicar una escala de ruido de PD personalizada, proporcional a la sensibilidad de sus datos, y el servidor reduce el ruido adaptativamente cuando la utilidad cae por debajo de un umbral. Experimentos con tres conjuntos de datos de salud mental demuestran que FedMentor mejora la seguridad y reduce la toxicidad, manteniendo la utilidad en comparación con el aprendizaje federado (FL) estándar. El marco escala a una red troncal con hasta 1700 millones de parámetros en un solo cliente de GPU, requiriendo menos de 173 MB de comunicación por ronda.