Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Vectorized Attention with Learnable Encoding for Quantum Transformer

Created by
  • Haebom

作者

Ziqing Guo, Ziwen Pan, Alex Khan, Jan Balewski

概要

この論文では、ベクトル化された量子ブロック符号化を使用して古典データをヒルベルト空間に埋め込む方法を提示し、これにより、古典的な自己主義メカニズムを量子回路シミュレーションに置き換える量子トランス(QT)などの量子モデルの効率を向上させます。従来のQTは、深層パラメータ化された量子回路(PQC)に依存してQPUノイズに脆弱であり、実際の性能が低下するという問題点があります。本論文では、ベクトル化された非線形量子エンコーダによる効率的なトレーニングを可能にし、量子近似シミュレーションによる理想的なマスクされたアテンション行列計算をサポートするベクトル化量子トランス(VQT)を提案します。これにより、ショット効率的で傾斜のない量子回路シミュレーション(QCS)と低減された古典的なサンプリングオーバーヘッドを実現します。 IBMとIonQでの量子回路シミュレーション精度の比較と、IBMの最先端の高忠実度Kingston QPUでの自然言語処理作業のベンチマーク結果は、競争力のある結果を示しています。ノイズに強い中規模の量子フレンドリーなVQTアプローチは、量子コンピューティングにおけるエンドツーエンドの機械学習のための新しいアーキテクチャを提供します。

Takeaways、Limitations

Takeaways:
ベクトル化量子エンコーダを用いた効率的なトレーニングとショット効率的な量子回路シミュレーションの実装
量子近似シミュレーションによる理想的なマスクされたアテンション行列計算のサポート
減少した古典的なサンプリングオーバーヘッド。
ノイズに強い中規模の量子に優しいアーキテクチャを提示。
IBMとIonQ QPUで競争力のある自然言語処理性能を実証。
Limitations:
提案されたVQTの性能は、使用されるQPUの性能とノイズレベルの影響を受ける可能性があります。
実際の大規模な自然言語処理タスクへの適用と性能評価がさらに必要である。
ベクトル化された量子エンコーダの一般化の可能性と他の量子モデルへのスケーラビリティに関するさらなる研究が必要です。
👍