Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Mes données sont-elles dans votre modèle d'IA ? Test d'inférence d'appartenance avec application aux images faciales

Created by
  • Haebom

Auteur

Daniel DeAlcala, Aythami Morales, Julian Fierrez, Gonzalo Mancera, Ruben Tolosana, Javier Ortega-Garcia

Contour

Cet article présente les tests d'inférence d'appartenance (MINT), une nouvelle approche permettant d'évaluer empiriquement si des données spécifiques ont été utilisées dans le processus d'apprentissage des modèles d'IA/ML. MINT propose deux architectures (basées sur des perceptrons multicouches (MLP) et des réseaux de neurones convolutifs (CNN)) conçues pour apprendre des schémas d'activation uniques qui émergent lorsque le modèle audité est exposé à des données d'apprentissage. Les expériences sont menées sur trois systèmes de reconnaissance faciale de pointe, en se concentrant sur la tâche difficile de la reconnaissance faciale, en utilisant six bases de données publiques contenant un total de plus de 22 millions d'images de visages. Différents scénarios expérimentaux sont envisagés en fonction du contexte du modèle d'IA, et les résultats montrent la possibilité de reconnaître si un modèle d'IA a été entraîné avec des données spécifiques, atteignant jusqu'à 90 % de précision. L'approche MINT proposée peut contribuer à améliorer la confidentialité et l'équité dans diverses applications d'IA, par exemple en révélant si des données sensibles ou personnelles ont été utilisées dans l'apprentissage ou le réglage fin de modèles linguistiques à grande échelle (LLM).

Takeaways, Limitations

Takeaways:
MINT présente une nouvelle méthode permettant de déterminer avec une grande précision (jusqu'à 90 %) si les modèles d'IA/ML utilisent des données de formation.
Cela peut contribuer à renforcer la confidentialité et l’équité (notamment en vérifiant si LLM utilise des données sensibles).
Il démontre l’applicabilité à diverses applications d’IA au-delà de la reconnaissance faciale.
Limitations:
Les expériences présentées sont limitées à une base de données et à un modèle spécifiques et nécessitent des recherches supplémentaires sur la généralisabilité.
Les performances de MINT peuvent varier en fonction des caractéristiques de la base de données et du modèle utilisé.
Des recherches sont nécessaires sur la possibilité d’évasion du MINT par des attaquants malveillants.
👍