En este artículo, proponemos un novedoso marco de aprendizaje multitarea con un módulo de optimización adaptativa dinámica (DAO) para abordar la degradación del rendimiento de los modelos de lenguaje a gran escala (LLM) para el análisis de sentimientos que utilizan el aprendizaje multitarea para gestionar simultáneamente la complejidad de varias tareas. La función de pérdida adaptativa dinámica, un componente fundamental del módulo DAO, ajusta dinámicamente los pesos asignados a cada tarea según su importancia relativa y las características de los datos durante el aprendizaje. Los resultados del análisis de sentimientos en conjuntos de datos de texto financiero estándar y personalizados muestran que el marco propuesto logra un rendimiento superior, mejorando el MSE en un 15,58 % y el ACC en un 1,24 % con respecto a trabajos anteriores.