Cet article aborde le problème des modèles de langage à grande échelle (MLL) apprenant des représentations de mots présentant une propriété indésirable appelée anisotropie. Les chercheurs soutiennent que le second moment de l'optimiseur Adam est à l'origine des plongements anisotropes et proposent un optimiseur modifié, Coupled Adam, pour atténuer ce problème. Les résultats expérimentaux montrent que Coupled Adam améliore significativement la qualité des plongements et optimise les performances des tâches superordonnées et subordonnées sur des ensembles de données suffisamment grands.