Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

FIT-Print: Hacia una verificación de propiedad de modelos resistente a reclamaciones falsas mediante huellas dactilares específicas

Created by
  • Haebom

Autor

Shuo Shao, Haozhe Zhu, Yiming Li, Hongwei Yao, Tianwei Zhang, Zhan Qin

Describir

Este artículo identifica vulnerabilidades en las técnicas de identificación de modelos para proteger los derechos de propiedad intelectual de modelos de código abierto y propone un enfoque novedoso para abordarlas. Demostramos que las técnicas de identificación existentes, debido a su método de comparación no dirigido, son vulnerables a ataques de falsas reivindicaciones, en los que los atacantes afirman falsamente que un modelo es suyo. Por lo tanto, proponemos FIT-Print, un paradigma de identificación dirigido, y desarrollamos dos técnicas de identificación de modelos de caja negra, FIT-ModelDiff y FIT-LIME, que utilizan la distancia entre las salidas del modelo y la importancia de las características de muestras específicas. Los resultados experimentales demuestran que el método propuesto es más robusto y eficaz contra ataques de falsas reivindicaciones que los métodos existentes.

Takeaways, Limitations

Takeaways:
Revela la vulnerabilidad de las técnicas de toma de huellas dactilares de modelos existentes a los ataques de afirmaciones falsas.
Proponemos un paradigma de toma de huellas dactilares dirigido (FIT-Print) y nuevas técnicas de toma de huellas dactilares de modelos de caja negra (FIT-ModelDiff, FIT-LIME).
Desarrollo de una técnica de toma de huellas dactilares de modelos robusta y eficaz contra ataques de afirmaciones falsas.
Presentando un nuevo enfoque a la protección de la propiedad intelectual en el modelo de código abierto.
Limitations:
El rendimiento del método propuesto puede variar según el modelo y el conjunto de datos utilizados.
Se necesita más investigación sobre la aplicabilidad y escalabilidad en entornos del mundo real.
Es necesaria una evaluación más profunda de la resistencia a varios tipos de ataques.
👍