Cet article présente une étude systématique de l'équité dans les modèles linguistiques à grande échelle (ML). Nous soulignons que, malgré leurs performances supérieures dans diverses tâches de traitement du langage naturel (TAL), les ML peuvent hériter et amplifier des biais sociaux associés à des attributs sensibles tels que le sexe et l'origine ethnique. Par conséquent, cet article passe en revue de manière exhaustive divers concepts d'équité existants et propose un nouveau schéma de classification basé sur des architectures de transformateurs, notamment des ML à encodeur seul, à décodeur seul et à encodeur-décodeur. Des exemples expérimentaux et des résultats sont présentés pour chaque définition d'équité, et les recherches futures et les questions ouvertes sont abordées pour faire progresser le domaine.