Dans cet article, nous proposons un nouveau modèle d'intégration de concepts interprétables linéaires (LICEM) qui surmonte les limites du modèle de goulot d'étranglement conceptuel (CBM) existant afin de résoudre le problème du manque d'interprétabilité des modèles linguistiques à grande échelle (LLM). LICEM atteint une précision de classification supérieure à celle des modèles interprétables existants et offre des performances similaires à celles des modèles boîte noire. De plus, il fournit des explications plus faciles à mettre en œuvre et plus cohérentes sur le plan causal que les méthodes existantes, et peut être entraîné sans supervision conceptuelle grâce à la structure LLM. Il répond aux limites du pouvoir expressif des CBM existants, à l'incapacité d'interpréter les tâches lors de l'utilisation de prédicteurs de tâches non linéaires et au besoin d'annotations détaillées, difficiles à appliquer aux données textuelles réelles.