Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

PRUNE : un cadre de réparation basé sur les correctifs pour le désapprentissage certifiable des réseaux neuronaux

Created by
  • Haebom

Auteur

Xuran Li, Jingyi Wang, Xiaohan Yuan, Peixin Zhang

Contour

Dans cet article, nous proposons une nouvelle approche pour surmonter les limites des méthodes de désapprentissage existantes en « oubliant » sélectivement certaines données grâce à l'application de correctifs au réseau neuronal. Alors que les méthodes existantes sont coûteuses et difficiles à vérifier car elles réentraînent le modèle avec les données restantes, notre méthode garantit la suppression des données en trouvant et en appliquant un correctif minimal et léger. Pour supprimer plusieurs points de données ou des classes entières, nous utilisons une méthode permettant de supprimer sélectivement et itérativement des points de données représentatifs. Les résultats expérimentaux sur plusieurs jeux de données montrent que la méthode proposée est efficace et consomme moins de mémoire tout en préservant les performances du modèle.

Takeaways, Limitations_

Takeaways:
Au lieu de l’approche traditionnelle et coûteuse de reconversion, nous présentons une méthode de suppression de données efficace et vérifiable.
Un « patch » léger vous permet de supprimer de manière sélective uniquement les données ciblées.
Il peut effectuer efficacement la suppression de plusieurs points de données ou de classes entières.
Il est compétitif en termes d’efficacité et de consommation de mémoire tout en minimisant la dégradation des performances du modèle.
Limitations:
Des recherches supplémentaires sont nécessaires pour évaluer les performances de généralisation de la méthode de patch proposée.
L’applicabilité à divers types de modèles de réseaux neuronaux et d’ensembles de données doit être davantage vérifiée.
Lors de l’application à de grands ensembles de données, les problèmes d’efficacité et d’évolutivité doivent être pris en compte.
Une analyse de la complexité et du coût de calcul du processus de génération de correctifs est nécessaire.
👍