[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

SHIELD: Un aprendizaje integrado seguro y altamente mejorado para la detección robusta de deepfakes contra ataques adversarios

Created by
  • Haebom

Autor

Kutub Uddin, Awais Khan, Muhammad Umar Farooq, Khalid Malik

Describir

En este artículo, proponemos SHIELD, un novedoso método de aprendizaje colaborativo para abordar la vulnerabilidad de la detección de audio deepfake. Demostramos experimentalmente que los métodos existentes de detección de audio deepfake son vulnerables a ataques antiforenses (AF) basados en redes generativas adversarias, y diseñamos un marco de aprendizaje colaborativo que integra un modelo generativo defensivo (DF) para defenderse de ellos. SHIELD utiliza un modelo triplete para capturar la correlación entre el audio de ataque real y el AF, y el audio de ataque real y el generado mediante un modelo generativo auxiliar. Demuestra un excelente rendimiento en varios modelos generativos de los conjuntos de datos ASVspoof2019, In-the-Wild y HalfTruth, y mitiga eficazmente la degradación de la precisión de detección causada por los ataques AF.

Takeaways, Limitations

Takeaways:
Presentamos SHIELD, una nueva técnica de defensa que contrarresta eficazmente los ataques antiforenses al audio deepfake.
Mejora de la robustez frente a ataques AF mediante el aprendizaje colaborativo utilizando modelos generativos auxiliares.
Validación del rendimiento mediante experimentos en diversos conjuntos de datos y modelos generativos.
Limitations:
Se requiere mayor investigación sobre el rendimiento de generalización del SHIELD propuesto. Podría ser necesario evaluar más a fondo su resistencia a diversos tipos de ataques AF.
La evaluación del rendimiento en entornos reales puede ser limitada. Es posible que se requieran pruebas con diversos datos de audio deepfake reales.
Se debe considerar el costo computacional y la complejidad. Podría ser necesaria investigación adicional para mejorar la eficacia de SHIELD.
👍