Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Los autocodificadores enmascarados contrastivos de gráficos de preentrenamiento son potentes destiladores para EEG

Created by
  • Haebom

Autor

Xinxu Wei, Kanhao Zhao, Yong Jiao, Hua Xie, Lifang He, Yu Zhang

Describir

Este artículo aborda el problema de utilizar eficazmente cantidades masivas de datos de EEG de alta densidad sin etiquetar para mejorar el rendimiento en el contexto de datos de EEG de baja densidad etiquetados limitados. Formulamos este problema como un problema de aprendizaje por transferencia de grafos y destilación de conocimiento, y proponemos un nuevo modelo llamado Destilador Autocodificador Enmascarado Contrastivo de Grafos Preentrenado Unificado (EEG-DisGCMAE). EEG-DisGCMAE introduce un paradigma de preentrenamiento de aprendizaje autosupervisado de grafos unificados que integra el preentrenamiento de aprendizaje contrastivo de grafos y el preentrenamiento de autocodificadores enmascarados de grafos. Además, proponemos una función de pérdida de destilación de topología de grafos para que un modelo de estudiante ligero entrenado con datos de baja densidad pueda aprender de un modelo de profesor entrenado con datos de alta densidad durante el preentrenamiento y el ajuste fino. Este método maneja eficazmente los electrodos faltantes mediante destilación contrastiva. Validamos la eficacia de EEG-DisGCMAE en cuatro tareas de clasificación utilizando dos conjuntos de datos de EEG clínicos con datos enriquecidos, y el código fuente está disponible en GitHub.

Takeaways, Limitations

Takeaways:
Presentamos un método eficaz para mejorar el rendimiento de datos EEG de baja densidad etiquetados y limitados.
Reducir la brecha entre los datos EEG de alta y baja densidad mediante el aprendizaje por transferencia de gráficos y la destilación de conocimientos.
Se presenta un nuevo paradigma de preentrenamiento de aprendizaje autosupervisado que integra aprendizaje contrastivo de gráficos y autocodificadores enmascarados de gráficos.
Manejo efectivo de electrodos faltantes a través de la función de pérdida de destilación topológica gráfica.
Validación del rendimiento en varios conjuntos de datos de EEG clínicos.
Limitations:
Es necesaria una mayor validación del rendimiento de generalización del método propuesto.
Es necesario evaluar la aplicabilidad a varios tipos de datos de EEG y situaciones clínicas.
Posible degradación del rendimiento cuando la cantidad de datos EEG de alta densidad es insuficiente.
Se requiere análisis del coste computacional y del tiempo de entrenamiento.
👍