Cet article aborde les risques importants pour la confidentialité et la sécurité des attaques par empreinte digitale sur les grands modèles de langage (LLM), de plus en plus utilisés dans les environnements sensibles. Nous présentons des recherches sur l'empreinte digitale des LLM d'un point de vue offensif et défensif. Une méthodologie offensive, qui optimise automatiquement la sélection des requêtes par apprentissage par renforcement, permet d'obtenir une meilleure précision d'empreinte digitale avec seulement trois requêtes qu'en sélectionnant aléatoirement trois requêtes dans le même pool. L'approche défensive, qui utilise un filtrage de sortie préservant la sémantique via des LLM auxiliaires, masque l'identité du modèle tout en préservant l'intégrité sémantique. Elle réduit la précision d'empreinte digitale pour les modèles testés tout en préservant la qualité du résultat. Ces contributions démontrent le potentiel d'amélioration des fonctionnalités des outils d'empreinte digitale tout en proposant des stratégies pratiques d'atténuation des attaques par empreinte digitale.