Cet article présente les tests d'inférence d'appartenance (MINT), une nouvelle approche permettant d'évaluer empiriquement si des données spécifiques ont été utilisées dans le processus d'apprentissage des modèles d'IA/ML. MINT propose deux architectures (basées sur des perceptrons multicouches (MLP) et des réseaux de neurones convolutifs (CNN)) conçues pour apprendre des schémas d'activation uniques qui émergent lorsque le modèle audité est exposé à des données d'apprentissage. Les expériences sont menées sur trois systèmes de reconnaissance faciale de pointe, en se concentrant sur la tâche difficile de la reconnaissance faciale, en utilisant six bases de données publiques contenant un total de plus de 22 millions d'images de visages. Différents scénarios expérimentaux sont envisagés en fonction du contexte du modèle d'IA, et les résultats montrent la possibilité de reconnaître si un modèle d'IA a été entraîné avec des données spécifiques, atteignant jusqu'à 90 % de précision. L'approche MINT proposée peut contribuer à améliorer la confidentialité et l'équité dans diverses applications d'IA, par exemple en révélant si des données sensibles ou personnelles ont été utilisées dans l'apprentissage ou le réglage fin de modèles linguistiques à grande échelle (LLM).