Cet article soutient que la compréhension du comportement des modèles linguistiques à grande échelle (MLH) est essentielle à leur utilisation sûre et fiable. Cependant, les méthodes d'IA explicable (IAX) existantes reposent principalement sur des explications au niveau des mots, inefficaces sur le plan informatique et incompatibles avec le raisonnement humain. De plus, nous abordons le problème de la perception des explications comme des résultats ponctuels, négligeant ainsi leur nature interactive et itérative. En réponse, nous présentons LLM Analyzer, un système de visualisation interactif permettant une exploration intuitive et efficace du comportement des LLM grâce à l'analyse contrefactuelle. LLM Analyzer intègre un algorithme novateur qui génère des contrefactuels fluides et sémantiquement significatifs grâce à des opérations d'élimination et de substitution ciblées, à un niveau de granularité défini par l'utilisateur. Ces contrefactuels sont utilisés pour calculer les scores d'attribution de caractéristiques et sont intégrés à des exemples concrets dans des visualisations tabulaires afin de soutenir l'analyse dynamique du comportement du modèle. Des études utilisateurs et des entretiens avec des experts en LLM démontrent la convivialité et l'efficacité du système, soulignant l'importance d'impliquer les humains dans le processus d'explication en tant que participants actifs, plutôt que passifs.