Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Atención vectorizada con codificación aprendible para transformadores cuánticos

Created by
  • Haebom

Autor

Ziqing Guo, Ziwen Pan, Alex Khan, Jan Balewski

Describir

Este artículo presenta un método para integrar datos clásicos en el espacio de Hilbert mediante codificación de bloques cuánticos vectorizados, mejorando así la eficiencia de modelos cuánticos como el Transformador Cuántico (QT), que reemplaza los mecanismos clásicos de autoatención con simulaciones de circuitos cuánticos. Los QT convencionales se basan en circuitos cuánticos profundamente parametrizados (PQC), susceptibles al ruido de la QPU y con degradación de rendimiento. En este artículo, proponemos un transformador cuántico vectorizado (VQT) que permite un entrenamiento eficiente mediante un codificador cuántico no lineal vectorizado y que facilita el cálculo de una matriz de atención enmascarada ideal mediante simulación cuántica aproximada. Esto logra una simulación de circuitos cuánticos (QCS) eficiente y sin gradientes, con una sobrecarga de muestreo clásica reducida. Al comparar la precisión de las simulaciones de circuitos cuánticos en IBM e IonQ, y al evaluar las tareas de procesamiento del lenguaje natural en la QPU Kingston de alta fidelidad de última generación de IBM, demostramos resultados competitivos. Este enfoque VQT, robusto al ruido, de escala media y compatible con la computación cuántica, presenta una arquitectura novedosa para el aprendizaje automático integral en computación cuántica.

Takeaways, Limitations

Takeaways:
Implementación de entrenamiento eficiente y simulación de circuitos cuánticos de disparo eficiente utilizando codificadores cuánticos vectorizados.
Soporte para el cálculo de matrices de atención enmascaradas ideales a través de simulaciones aproximadas cuánticas.
Reducción de la sobrecarga del muestreo clásico.
Presentamos una arquitectura de escala media, robusta al ruido y amigable con lo cuántico.
Demostración de un rendimiento competitivo en el procesamiento del lenguaje natural en las QPU de IBM e IonQ.
Limitations:
El rendimiento del VQT propuesto puede verse afectado por el rendimiento y el nivel de ruido de la QPU utilizada.
Se necesitan más aplicaciones y evaluaciones del rendimiento para tareas reales de procesamiento del lenguaje natural a gran escala.
Se necesitan más investigaciones sobre la generalización de los codificadores cuánticos vectorizados y su extensibilidad a otros modelos cuánticos.
👍