[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

SABRE-FL: Rechazo selectivo y preciso de puertas traseras para el aprendizaje rápido federado

Created by
  • Haebom

Autor

Momin Ahmad Khan, Yasra Chandio, Fatima Muhammad Anwar

Describir

Este artículo es el primero en estudiar los riesgos de seguridad del Aprendizaje de Avisos Federados (FPL), un paradigma que optimiza la comunicación y preserva la privacidad, y que aplica modelos de lenguaje de visión a gran escala, como CLIP, en clientes distribuidos. Demostramos que, cuando un cliente malicioso inyecta en la imagen de entrada activadores de ruido aprendibles visualmente imperceptibles, el aprendiz de avisos global es vulnerable a la clasificación errónea del objetivo, manteniendo al mismo tiempo una alta precisión para entradas normales. Para abordar esta vulnerabilidad, proponemos SABRE-FL, un mecanismo de defensa modular y ligero que filtra las actualizaciones de avisos envenenados mediante un detector de anomalías del espacio de incrustación entrenado sin conexión con datos fuera de distribución. SABRE-FL no requiere acceso a datos brutos ni etiquetas del cliente y se generaliza adecuadamente en diversos conjuntos de datos. Demostramos teórica y experimentalmente que los detectores basados ​​en incrustación pueden identificar y filtrar clientes maliciosos de forma fiable. En cinco conjuntos de datos diversos y cuatro técnicas de defensa de referencia, demostramos un rendimiento experimental robusto al mejorar significativamente la precisión en comparación con todas las técnicas de defensa de referencia, manteniendo la precisión normal, lo que destaca la necesidad de un aprendizaje de avisos robusto en futuros sistemas federados.

Takeaways, Limitations

Takeaways:
Primero en revelar vulnerabilidades de seguridad en Federated Prompt Learning, particularmente el riesgo de ataques de puerta trasera.
Propuesta de SABRE-FL, un mecanismo de defensa efectivo para proteger a FPL de ataques de puerta trasera.
SABRE-FL es liviano y modular, aplicable a una variedad de conjuntos de datos y no requiere acceso a datos sin procesar.
Verificación experimental de la eficacia de la identificación y el filtrado de clientes maliciosos mediante un detector de anomalías basado en incrustaciones.
Destaca la importancia de un fuerte aprendizaje impulsado en los futuros sistemas de aprendizaje federado.
Limitations:
El rendimiento de SABRE-FL puede depender del rendimiento del detector de anomalías utilizado.
Se necesita más investigación sobre el rendimiento de generalización contra diferentes tipos de ataques de puerta trasera.
Se necesita una mayor validación de la aplicabilidad y escalabilidad en entornos del mundo real.
Es necesario considerar estrategias de actualización y mantenimiento para detectores de anomalías entrenados fuera de línea.
👍