Cet article explore le contrôle d'accès basé sur les rôles pour les modèles de langage à grande échelle (LLM), de plus en plus déployés dans les environnements d'entreprise. Les mécanismes de sécurité existants supposent des autorisations d'accès générales et se concentrent sur la prévention des sorties nuisibles ou malveillantes, mais ne prennent pas en compte les restrictions d'accès spécifiques aux rôles. Cette étude examine comment le réglage fin des LLM peut générer des réponses reflétant les autorisations d'accès associées à divers rôles organisationnels. Nous explorons trois stratégies de modélisation : un classificateur basé sur BERT, un classificateur basé sur LLM et une génération conditionnelle de rôles. Nous évaluons les performances du modèle à l'aide de deux jeux de données : l'un basé sur le clustering et l'étiquetage des rôles d'un corpus de réglage d'instructions existant, et l'autre généré synthétiquement à partir de scénarios d'entreprise réalistes et sensibles aux rôles. Nous analysons également les performances du modèle dans différentes structures organisationnelles et sa robustesse face aux insertions d'invites, aux incohérences de rôles et aux tentatives de jailbreak.