Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Integración de gráficos de conocimiento federados de baja dimensión mediante destilación de conocimiento

Created by
  • Haebom

Autor

Xiaoxiong Zhang, Zhiwei Zeng, Xin Zhou, Zhiqi Shen

Describir

Este artículo se centra en la incrustación de grafos de conocimiento federados (FKGE), que aprende colaborativamente incrustaciones de entidades y relaciones a partir de grafos de conocimiento (KG) de múltiples clientes en un entorno distribuido. Las incrustaciones de alta dimensión ofrecen ventajas en rendimiento, pero plantean desafíos en términos de espacio de almacenamiento y velocidad de inferencia. Los métodos de compresión de incrustaciones existentes requieren múltiples ejecuciones de entrenamiento del modelo, lo que aumenta los costos de comunicación de FKGE. Por lo tanto, este artículo propone FedKD, un componente ligero basado en la destilación de conocimiento (KD). FedKD permite que un modelo de estudiante de baja dimensión imite la distribución de puntuaciones de triplete de un modelo de profesor de alta dimensión utilizando la pérdida de divergencia de KL durante el entrenamiento local del lado del cliente. A diferencia de la KD convencional, FedKD aprende adaptativamente las temperaturas para puntuaciones de triplete positivas y ajusta las puntuaciones de triplete negativas utilizando temperaturas predefinidas, mitigando el problema de exceso de confianza del profesor. Además, ajusta dinámicamente los pesos de la pérdida de KD para optimizar el proceso de entrenamiento. Validamos la eficacia de FedKD mediante experimentos exhaustivos en tres conjuntos de datos.

Takeaways, Limitations

Takeaways:
Presentamos un método de compresión liviano basado en la destilación de conocimiento que aborda de manera efectiva los problemas de costos de almacenamiento e inferencia de incrustaciones de alta dimensión en entornos de aprendizaje federados.
Se propone una nueva técnica de control de temperatura adaptativo para aliviar el problema de exceso de confianza del modelo de profesor de Limitations de destilación de conocimiento existente.
Optimización del proceso de entrenamiento de la pérdida de destilación de conocimiento mediante el ajuste dinámico del peso.
La eficacia del método propuesto se verifica mediante experimentos utilizando tres conjuntos de datos.
Limitations:
La eficacia del método propuesto puede estar limitada a conjuntos de datos específicos.
Es necesaria la verificación del rendimiento de generalización para varios modelos FKGE.
Se necesita un análisis comparativo más profundo con otros métodos de compresión.
👍