Bài báo này trình bày một nghiên cứu có hệ thống về tính công bằng trong các mô hình ngôn ngữ quy mô lớn (LM). Chúng tôi nhấn mạnh rằng, mặc dù có hiệu suất vượt trội trong nhiều tác vụ xử lý ngôn ngữ tự nhiên (NLP), LM có thể kế thừa và khuếch đại các thành kiến xã hội liên quan đến các thuộc tính nhạy cảm như giới tính và chủng tộc. Do đó, bài báo này xem xét toàn diện các khái niệm công bằng hiện có và đề xuất một sơ đồ phân loại mới dựa trên kiến trúc máy biến áp, bao gồm các LM chỉ mã hóa, chỉ giải mã và mã hóa-giải mã. Các ví dụ và kết quả thử nghiệm được trình bày cho từng định nghĩa về công bằng, đồng thời các nghiên cứu trong tương lai và các vấn đề còn bỏ ngỏ sẽ được thảo luận để thúc đẩy lĩnh vực này.