Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Perturber la fusion des modèles : une défense au niveau des paramètres sans sacrifier la précision

Created by
  • Haebom

Auteur

Wei Junhao, Yu Zhe, Sakuma Jun

Contour

Cet article étudie une technique de fusion de modèles combinant plusieurs modèles pré-entraînés en un seul, sans apprentissage supplémentaire. Nous présentons notamment une méthodologie visant à empêcher les pirates d'exploiter à moindre coût des fonctionnalités spécialisées grâce à la fusion de modèles. Alors que les méthodes existantes, telles que le tatouage numérique ou l'empreinte digitale, ne détectent la fusion qu'après coup, cet article propose la première technique de défense proactive contre la fusion de modèles. Cette technique de défense modifie les paramètres du modèle de sorte que sa fonction soit dégradée lors de la fusion avec d'autres modèles, mais qu'elle soit maintenue en l'absence de fusion. Elle comprend deux modules, le réarrangement des paramètres MLP et la mise à l'échelle de la tête d'attention, qui dégradent significativement les performances de fusion avec d'autres modèles en déplaçant le modèle hors du bassin partagé dans l'espace des paramètres. Grâce à des expériences approfondies sur la classification et la génération d'images, ainsi que sur la classification de textes, nous montrons que la technique de défense proposée entrave sérieusement la fusion tout en préservant la fonction du modèle. Nous analysons également les attaques adaptatives potentielles et proposons une méthode d'élagage supplémentaire basée sur les pertes de données pour améliorer la robustesse de la technique proposée.

Takeaways, Limitations_

Takeaways:
Présentation de la première technique de défense préventive contre la fusion de modèles
Perturbation efficace de la fusion via le réarrangement des paramètres MLP et la mise à l'échelle de la tête d'attention
Vérification des performances dans diverses tâches telles que la classification d'images, la génération d'images et la classification de texte.
Analyse des attaques adaptatives et proposition d'amélioration de la robustesse par élagage basé sur les abandons
Limitations:
Des recherches supplémentaires sont nécessaires sur l’efficacité à long terme de la technique de défense proposée et sur ses performances de généralisation contre diverses attaques.
Il est nécessaire d'améliorer et d'optimiser les performances de l'élagage basé sur les abandons
Des vérifications supplémentaires de l’applicabilité et de l’efficacité dans des environnements réels sont nécessaires.
👍