Cet article met en évidence les limites des méthodes existantes de détection des vulnérabilités logicielles telles que les dépassements de tampon et les injections SQL (taux de faux positifs élevés, problèmes d'évolutivité et recours à l'intervention manuelle) et suscite l'intérêt pour les approches basées sur l'IA. Plus précisément, nous proposons le SAE (Sparse Autoencoder) comme alternative légère et interprétable pour surmonter les défis d'interprétabilité et de déploiement. Nous évaluons le SAE sur des représentations générées par GPT-2 Small et Gemma 2B pour la détection de bugs dans les fonctions Java et démontrons qu'il atteint des performances supérieures (jusqu'à 89 % de score F1) par rapport aux modèles existants basés sur des transformateurs affinés. Il s'agit de la première étude à démontrer empiriquement que le SAE peut détecter des bugs logiciels à partir des représentations internes de LLM pré-entraînés sans affinement ni supervision spécifique à la tâche. Le code source est disponible sur GitHub.