Bài báo này đề cập đến vấn đề học biểu diễn từ của các mô hình ngôn ngữ quy mô lớn (LLM) với một đặc tính không mong muốn được gọi là dị hướng. Các nhà nghiên cứu lập luận rằng mômen bậc hai của bộ tối ưu hóa Adam là nguyên nhân gây ra hiện tượng nhúng dị hướng và đề xuất một bộ tối ưu hóa được sửa đổi, Coupled Adam, để giảm thiểu vấn đề này. Kết quả thực nghiệm cho thấy Coupled Adam cải thiện đáng kể chất lượng nhúng và nâng cao hiệu suất của cả tác vụ cấp trên và cấp dưới trên các tập dữ liệu đủ lớn.