Dans cet article, nous proposons un nouveau cadre d'apprentissage multitâche avec module d'optimisation adaptative dynamique (DAO) pour remédier à la dégradation des performances des modèles de langage à grande échelle (LLM) pour l'analyse des sentiments. Ces modèles utilisent l'apprentissage multitâche pour gérer simultanément la complexité de diverses tâches. La fonction de perte adaptative dynamique, un composant essentiel du module DAO, ajuste dynamiquement les pondérations attribuées à chaque tâche en fonction de son importance relative et des caractéristiques des données pendant l'apprentissage. Les résultats de l'analyse des sentiments sur des ensembles de données textuelles financières standard et personnalisées montrent que le cadre proposé offre des performances supérieures, améliorant l'erreur quadratique moyenne (MSE) de 15,58 % et l'erreur quadratique moyenne (ACC) de 1,24 % par rapport aux travaux précédents.