Cet article examine le biais des garde-fous dans les modèles de langage génératif (MLG). Plus précisément, nous analysons l'impact des informations d'origine de l'utilisateur (âge, sexe, origine ethnique, appartenance politique, etc.) sur la probabilité de rejet des demandes de LLM, à l'aide de GPT-3.5. Nos résultats révèlent que les jeunes femmes et les utilisateurs d'origine asiatique sont plus susceptibles d'être rejetés lorsqu'ils demandent des informations interdites ou illégales, et que les garde-fous tendent à rejeter les demandes qui contredisent les convictions politiques de l'utilisateur. De plus, nous constatons que même des informations anodines, comme le niveau de soutien sportif, peuvent déduire les convictions politiques d'un utilisateur et influencer l'activation des garde-fous.