[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Destilación de conocimiento alineada con la frecuencia para pronósticos espaciotemporales ligeros

Created by
  • Haebom

Autor

Yuqi Li, Chuanguang Yang, Hansheng Zeng, Zeyu Dong, Zhulin An, Yongjun Xu, Yingli Tian, Hao Wu

Describir

En este artículo, proponemos un marco ligero, la Destilación de Conocimiento Desacoplado Espectral (SDKD), para abordar la baja eficiencia de entrenamiento y el alto consumo de memoria de modelos complejos en tareas de predicción espaciotemporal como el flujo de tráfico, la dinámica de combustión y la predicción meteorológica. SDKD transfiere la representación espaciotemporal multiescala de un modelo docente complejo a una red estudiantil ligera y eficiente. El modelo docente sigue la arquitectura codificador-evolución latente-decodificador, y el módulo de evolución latente utiliza convolución y Transformer (modelador global de baja frecuencia) para separar los detalles de alta frecuencia de las tendencias de baja frecuencia. Sin embargo, las arquitecturas multicapa de convolución y deconvolución conllevan un entrenamiento lento y un alto consumo de memoria. Para abordar este problema, proponemos una estrategia de destilación de conocimiento alineada con la frecuencia que extrae características espectrales multiescala del espacio latente del modelo docente, que incluye componentes de alta y baja frecuencia, y guía al modelo estudiantil ligero para capturar tanto los microcambios locales como los patrones de evolución global. Los resultados experimentales muestran que SDKD mejora significativamente el rendimiento del conjunto de datos de ecuaciones de Navier-Stokes, logrando una reducción de hasta el 81,3 % en el MSE y hasta el 52,3 % en el MAE, capturando eficazmente los cambios de alta frecuencia y las tendencias a largo plazo, a la vez que reduce la complejidad computacional. El código fuente se encuentra en https://github.com/itsnotacie/SDKD .

Takeaways, Limitations

Takeaways:
Proponemos un marco SDKD liviano que aborde de manera efectiva los problemas de eficiencia de entrenamiento y consumo de memoria para modelos complejos de predicción espaciotemporal.
Aprenda eficazmente tanto los cambios de alta frecuencia como las tendencias a largo plazo a través de una estrategia de destilación de conocimiento alineada con la frecuencia.
Verifique experimentalmente la mejora del rendimiento a través de la reducción de MSE y MAE en el conjunto de datos de ecuaciones de Navier-Stokes.
Limitations:
Se requieren experimentos adicionales para evaluar el rendimiento de generalización del método propuesto. Se requieren evaluaciones adicionales del rendimiento en diversas tareas de predicción espaciotemporal.
Dado que solo se presentan resultados para un conjunto de datos específico, es necesario verificar su aplicabilidad a otros tipos de conjuntos de datos.
Falta una descripción detallada del diseño del modelo docente y la configuración de los hiperparámetros. Se necesita información adicional para garantizar la reproducibilidad.
👍